Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Engineer Hadoop SQL Spark
Site : Lille (2 J / semaine sur site, le reste possible en TT) Nature du besoin : reprise d'un périmètre existant qui était délivré par un autre prestataire. Transition entre l'ESN et le prestataire sortant de 2 mois sur octobre/novembre. Forts enjeux car migration technique en cours avec échéance à fin d'année Date de démarrage : 1/10/2024 Durée mission : 12 mois renouvelables Type de projet : forfait, scrum team avec Tech Lead Process de qualification : Entretien Mission : Réaliser l'intégration des données depuis un Espace Produit basé sur Hadoop et précalculer des indicateurs pour les injecter dans des rapports Power BI Profil : besoin de 2 Data Engineer SQL Spark de 3 à 7 ans d'expérience Compétences techniques: Hadoop / Spark / SQL. Stack technique : Hadoop, HDFS, HIVE, SparkSQL, MS-SQLServer Activités : De conception et de développement en mode Agile
Offre d'emploi
Développeur/Développeuse TERADATA
Poste : Développeur/Développeuse Teradata Type de contrat : CDI Localisation : Paris Salaire : 48K minimum, selon profil et expériences Contexte : Nous recherchons des développeurs Teradata pour accompagner notre client, un grand compte bancaire dans le développement d'application sur la base de puissantes plates-formes DATA. Compétences techniques : Développement Teradata / SQL Connaissance de Unix Connaissance de Control M La connaissance de la démarche DevOps est un plus Mode de chargement dans l’entrepôt : T3R , BTEQ , Datastage Teradata Mode d’historisation dans l’entrepôt (CRI, CRE, CRO) Chargement par flux MVS (anciens chargements avec TPT MVS) Chargement par flux Big Data Suivi des chargements sous CONTROL-M Formation succincte de Collecte / alimentation de Datastage Environnement UNIX (répertoires principaux, Usage & Entrepôt) SQL sur SGBD relationel (Teradata) Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea
Mission freelance
88939/DATA ENGINEERING Spark (spark streaming et batch), Kafka, Java Nantes
DATA ENGINEERING Spark (spark streaming et batch), Kafka, Java Nantes Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV),
Mission freelance
Data Engineer senior Hadoop / Hive + ELK + Kafka
Profil : Data Engineer Senior ou Tech Lead A l'aise avec le CICD, aguerri aux technologies Java et en solutions conteneurisées (ELK, Kafka, etc ..) Administration des bases de données (Famille) Conception événementielle (Kafka, rabbitMQ, CREM …) Hadoop Java / Spark Nifi Hive Kotlin Principes d'intégration continue SQL Site : Nantes en priorité, possible sur Aix sinon à étendre à d'autres localisations Nature du besoin : remplacement d'un profil senior actuellement en mission Type de projet : (TT possible 2 j / semaine) Service public de l'emploi
Offre d'emploi
Data Engineer Scala Spark Hadoop
💼 Poste : Data Engineer Scala Spark Hadoop 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Notre client souhaite une assistance dans le cadre de la mise en œuvre d'une assiette commune pour les usages Finances et Risques, plus particulièrement sur les données Evènements. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : L’architecture avec le reste de l’entité (tech lead, devs, architecture). Mise en œuvre/Développement des propositions techniques. Revue de code. Suivi des méthodologies agiles. L'industrialisation des développements et des tests sur de l'open source Environnement anglophone. Livrables attendus Les livrables attendus sont : Développements et tests (en TDD) en mode Agile pour répondre au cas d'usage métier et déployable en environnement de production. PVs techniques Chiffrage de projets et évolutions Design de solution 🤝 Expertises spécifiques : Continuous Integration Hadoop (Big Data) Scala Spark
Offre d'emploi
Consultant teradata
Nous recherchons un Consultant TeraData / Data Engineer expérimenté. Vous rejoindrez une équipe spécialisée sur TeraData pour apporter votre expertise et vos recommandations stratégiques dans un environnement international. Missions : Analyse et Monitoring : Responsable de l'analyse des performances et du monitoring des systèmes TeraData, vous utiliserez l'outil Viewpoint pour identifier les anomalies, proposer des solutions et optimiser les processus en place. Recommandations Stratégiques : Votre rôle principal consistera à fournir des recommandations techniques pour améliorer l'utilisation de TeraData, en vous concentrant sur l'optimisation plutôt que sur des tâches administratives ou de développement. Collaboration avec l'Équipe TeraData : Vous travaillerez en étroite collaboration avec une équipe déjà en place, intervenant via OPS lorsque nécessaire. Compétences Requises : Expérience en TeraData : 4 à 5 ans d'expérience pertinente sur la plateforme TeraData. Maîtrise de l'Outil Viewpoint : Une connaissance de Viewpoint pour le monitoring des systèmes TeraData est un plus. Anglais Courant : Capacité à communiquer efficacement en anglais dans un environnement international. Excellentes Compétences Relationnelles : Capacité à travailler de manière collaborative et à interagir efficacement avec différentes équipes.
Offre d'emploi
Data Engineer Teradata
Au sein de la tribu Data Hub, vous intégrerez la Squad Pilotage Commercial en charge des usages décisionnels pour les domaines Clients, Distribution, Marketing et Régalien. La squad est responsable des solutions de données modélisées (datawarehouse), agrégées et optimisées (datamarts) ainsi que des couches d'exposition et des tableaux de bord de pilotage. La squad contribue également aux besoins transverses pour ces domaines (ex : reporting réglementaire multi-domaine). Missions : Développer des User Story relatifs à la mise en place de solution de chargement et de restitution du SGBD Teradata. Mettre en œuvre les tests unitaires. Déployer le produit dans les différents environnements Garantir et assurer le fonctionnement des produits en production. Produire la documentation associée à ses développements. Participer à l’affinage et chiffrage des solutions Participer aux cérémonies et démarche agile SCRUM de la squad. Attendus : Développer des traitements de chargement, d’extraction et de restitution de données utilisateurs à destination de la plateforme Teradata et des Datawarehouse. Développer des indicateurs de pilotage répondant aux usages métier. Développer des reporting et les moyens de supervision. Suivre les évolutions et être garants de la cohérence des solutions mises en œuvre Identifier / proposer des optimisations des traitements dans une démarche d'amélioration continue du plan de production. Le profil devra avoir la capacité de prendre de la hauteur sur les solutions à fournir, avoir la capacité de les expliquer et d’accompagner leur bonne appropriation par les utilisateurs.
Offre d'emploi
Data Eng Spark
L’objectif de la mission est de contribuer à l’industrialisation des processus et traitements big data mis en œuvre dans le cadre de la plateforme mégadonnées de client et d’assurer la maintenance des pipelines d’intégration et de transformation des données à l’EDS Prestation de développements & Ingénierie big data dans le cadre de l’intégration et d’exploration de données dans un contexte big data et du cluster données massives Conception et réalisation/développement d’outils et traitements d’intégration et de standardisation de données massives dans le cadre d’une plateforme Hadoop, Contribution à l’industrialisation d’outils d’exploration des données (restitution des données de type tableaux de bord, projets de recherche thématiques, bibliothèques de code spécifiques, etc.) ; Participation à la standardisation des modèles de données (format FHIR/OMOP) et à la conception d’API appropriés (Webservices FHIR, etc.) ; Spécifications techniques détaillées ; Test unitaire et recette technique ; Documentation de conception, réalisation et d’exploitation. L’objectif de la mission consiste à participer à la mise en place d’outils de pilotage
Offre d'emploi
Expert KAFKA
Ce que tu recherches : · Evoluer au sein d’une équipe dynamique · Participer à des projets innovants d’envergure · Relever des défis · Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi ! Dans le cadre du plan de Transformation SI , nous recherchons un Expert KAFKA pour rejoindre les équipes de notre client grand compte : · Analyse des besoins, tu feras · Spécifications techniques, tu rédigeras · L’architecture et/ou socle technique, tu définiras · Bonnes pratiques, tu instaureras · De nouvelles fonctionnalités, tu développeras · Zéro bug, tu laisseras · Ton équipe, tu accompagneras · Aux instances de pilotage, tu participeras
Mission freelance
DATA ENGINEERING SPARK SCALA H/F
la Prestation consiste à contribuer à/au(x) : - L’architecture avec le reste de l’entité (tech lead, devs, architecture). - Mise en œuvre/Développement des propositions techniques. - Revue de code. - Suivi des méthodologies agiles. - L'industrialisation des développements et des tests sur de l'open source Les livrables attentdus sont: - Développements et tests (en TDD) en mode Agile pour répondre au cas d'usage métier et déployable en environnement de production. - PVs techniques - Chiffrage de projets et évolutions - Design de présentation Environnement anglophone.
Mission freelance
Tech Lead KAFKA
Nous recherchons un Tech Lead expert en Kafka pour accompagner notre équipe dans le développement de flux Kafka et pour conseiller sur les choix techniques liés à l’architecture des flux de données. Kafka est un composant stratégique pour notre organisation et deviendra de plus en plus central dans les deux prochaines années. Actuellement, nous utilisons une solution managée Kafka sur AWS (Amazon MSK) et prévoyons de déployer des brokers Kafka at Edge sur nos différents sites. Responsabilités : Développer et concevoir des flux Kafka pour répondre aux besoins métier. Proposer des configurations optimisées pour la synchronisation de brokers Kafka distants. Conseiller sur l'architecture technique et les bonnes pratiques de développement de flux Kafka. Participer à la mise en place et à la gestion de l’infrastructure Kafka sur AWS et à l’Edge. Collaborer avec les équipes pour intégrer Kafka comme une solution stratégique. Assurer la qualité et la performance des flux de données.
Mission freelance
Kafka AMQ Stream Expert
JCW est a la recherche d'un Expert Kafka AMQ Streams (Openshit Operator) pour l'un de ces clients. LE PROFIL: Savoir dessiner et implémenter KAKFKA Faire la partie Run de Kafka et dans environnement challengeant Savoir mesurer - monitoriser les métriques Savoir quel seuil considerer Savoir expliquer et résoudre les problèmes majeurs que l'on peut retrouver sur chaque axes (Producteur - Consommateur - courtier) LA MISSION: Démarrage ASAP Localisation: Ile-de-France Durée: Mission ponctuelle - 20 jours Langues: Anglais professionnel impératif et francais Si vous êtes intéressé ou connaissez une personne qui peut l'être, envoyez mois vos CV en anglais , à pour une considération immédiate.
Mission freelance
Expert Kafka (H/F)
Le consultant intégrera l’équipe d’architecte solution pour : Définir la trajectoire de transformation des SI pour répondre aux enjeux et attentes des métiers et de garantir la cohérence et la contribution aux cibles et objectifs stratégiques de transformation définis par le métier Définir et documenter les architectures des solutions SI permettant de décliner ces trajectoires Être force de proposition en concevant l’architecture des solutions sur différents scénarios Participer à l’élaboration d’une cible d’architecture en collaborant avec les autres architectes. Participer à la conception l'architecture logicielle en partenariat avec les équipes de développement Cartographier les flux / applications Faire respecter les patterns d’architecture inscrits au référentiel Développer/maintenir un haut niveau d'expertise dans votre (vos) domaine(s) de référence. Le consultant pourra aussi être amené à travailler sur éléments suivants : 1/ Conception, mise à jour et évolution du système d’information Construire, mettre à jour et faire évoluer la cartographie du système d’information de l’entreprise. Faire l’inventaire des fonctions informatiques existantes (applications et référentiels de données) et des flux d’informations. Identifier et modéliser les activités, les processus et les services à rendre. Définir un plan d’urbanisation cible. Proposer des scénarios d’évolution et de simplification du système d’information. 2/ Garantie de la cohérence du S.I. Évaluer la pertinence et la cohérence des projets par rapport à l’architecture cible et aux systèmes existants. Mettre en évidence si nécessaire la complexité du S.I et les systèmes non-rationnels (flux multiples, redondances de données). Définir des cibles d'architecture fonctionnelle, applicative et technique. S'assurer que tous les projets d'évolution informatique sont alignés avec l’architecture cible.
Offre d'emploi
Data Engineer Java Spark H/F
[Contexte] Pour répondre aux enjeux de la gestion des risques structurels (Liquidité et taux), la Feature Team Garliq International Entities (GIE) a bâti une plateforme ALM : GARLIQ autour du progiciel FusionRisk de Finastra. Elle répond à un double objectif : permettre aux acteurs des métiers ALM au sein des entités du groupe de calculer les métriques utiles à la gestion des risques et produire les données pour le reporting au niveau groupe. GIE assiste fonctionnellement et techniquement ses utilisateurs de plus en plus nombreux. Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique [La prestation consiste à contribuer à/au(x)] - La transformation bigdata (Lucid interne SG) / devops (cloud interne SG) / depuis une solution legacy VM AIX, linux, base oracle sur du code C++, shell, SQL principalement. Environnement technique : Java / Spring. Environnement : anglophone et francophone.
Offre d'emploi
Développeur C# .NET Core Kafka Senior
💼 Poste : Développeur C# .NET Core Kafka 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Contribution au développement autour de la nouvelle plateforme orientée services (SOA) ayant comme socle Kafka et Cassandra. Technologie Kafka est un plus puisque la mission s'articulera principalement autour de cette technologie. Nous intervenons sur le développement de service pour le Front Office. 🤝 Expertises spécifiques : Objectifs de la mission Développement C# .NET Core Méthodologie : BDD/TDD Utilisation de Kafka/Cassandra Maintenance applicative Documentation / Testing Support L3
Mission freelance
Team Lead DevSecOps - ActiveMQ Kafka
Nous recherchons un DevSecOps Senior pour être le leader de l’équipe en charge de notre Infrastructure Cloud de Messaging pour améliorer la performance, la scalabilité, la sécurité et la stabilité de nos instances de production. La mission consiste à: Ø Piloter et participer aux efforts de R&D de l'équipe pour livrer notre infrastructure de Messaging et Streaming d’événements dans un environnement DevSecOps, Ø Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, Ø Evangéliser les bonnes pratiques ActiveMQ et Kafka, et les principes des conceptions orientés évènements, Ø La Prestation nécessite un travail en étroite collaboration avec les services owners et les équipes Cloud Opérations. Livrables: - Livraison des infrastructures de Messaging et Streaming d’événements dans un environnement DevSecOps, - Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, - Etre support pour toutes les procédures à mettre en place et vérifier leur bonne application pratique sur les différents outils ActiveMQ et Kafka - Etre support technique aux équipes de Cloud RUN pour le troubleshooting des incidents de production - Gestion au quotidien & coaching technique et humain de l’équipe Messaging (ingénieurs DevSecOps)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes