Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
DATA ENGINEER GCP SPARK SCALA

Nous recherchons un data engineer GCP Spark/Scala avec pour missions principales : Collecter des données provenant de diverses sources externes. Exploiter les capacités du Datalake sur GCP. Implémenter l’ensemble du processus incluant : L’ingestion des données, La validation des données, Le croisement des données, L’intégration des données enrichies dans le Datalake. Développer en respectant les principes d’architecture définis. Rédiger et documenter les user stories en collaboration avec le Product Owner. Rédiger les scripts nécessaires au déploiement. Identifier et prioriser la correction des anomalies. Assister les équipes en charge de l’exploitation. Contribuer à la mise en place d’une chaîne de livraison continue. Automatiser les tests fonctionnels. Encadrer et superviser le travail des data engineers de la squad.
Data Engineer GCP / Python

Je recherche pour un de mes clients un Data Engineer GCP / Python : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data • Réaliser le développement dans les environnements technologiques attendus • Rédiger la documentation technique • Assurer un support aux testeurs Livrables principaux : • Réaliser du code applicatif • Rédiger les documentations techniques liés à ta solution, • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML
Senior Data Engineer GCP - JAVA
Vos principales missions Contribuer à la migration de l’environnement Hadoop / Spark vers le cloud GCP Participer au développement et à l’optimisation des traitements Big Data Concevoir et maintenir des pipelines de données performants et scalables Mettre en place des architectures serverless et clusterisées sur GCP (DataProc, BigQuery, GSC) Assurer la qualité et la robustesse des solutions déployées Accompagner et coacher les équipes internes sur les bonnes pratiques Cloud et Big Data
Lead Data Engineer GCP

RESPONSABILITÉS CLÉS Garantir l'harmonisation de l'architecture et le support technique Être responsable de l'architecture technique du produit de données Assurer l'alignement avec les directives d'architecture et être le relais avec les équipes d'architecture Veiller à ce que la construction du produit soit conforme aux principes de données Résoudre les problèmes techniques et partager les meilleures pratiques de codage Diffuser les directives technologiques du groupe et les bonnes pratiques au sein de l'équipe Partager avec les équipes de développement et assurer l'amélioration continue (rétrospectives) Garantir la qualité de service pour chaque produit et respecter les SLA Responsable de la documentation technique, des revues de code et de toutes les pratiques techniques Accompagner le PO et assurer la qualité de service Responsable de la qualité de service et des SLA Aider le PO dans la phase de découverte de solution/produit Veiller à des documents clairs pour l'auto-service Référent technique au sein de son équipe Responsable de diffuser la vision technique Data au sein de son équipe Responsable de la qualité du développement au sein de son équipe Responsable des revues de code et de l'amélioration continue du produit qu'il gère Responsable des demandes de fusion (merge request) au sein de son équipe (Github) Gérer les affinements ad-hoc Maintenir la relation avec les sources de données Garantir la connaissance opérationnelle des données Enregistrer et suivre la dette technique avec l'équipe d'architecture
Data Engineer GCP & JAVA

Nous recherchons pour notre client, une entreprise de premier plan, un Data Engineer expérimenté avec une expertise en Cloud, de préférence sur Google Cloud Platform (GCP). Le candidat devra être autonome tout au long de la mission Maîtrise de Java, Spring Boot, et Maven Expertise en BigQuery Expérience solide avec Apache Airflow Connaissance approfondie du SQL Maîtrise de Dataflow Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform Connaissance de Dataform ou DBT
Data Engineer GCP

Bonjour, Je vous envoie ce mail car dans le cadre d'une mission de longue durée pour notre client situé en à Paris, nous recherchons un Data Engineer GCP. Type de profils confirmé (> 5 ans d'expérience) Technologies GCP (expérience obligatoire sur ce cloud provider) Python (expérience obligatoire) Bonne maîtrise BigQuery (obligatoire) Bonne maîtrise Terraform Git (obligatoire) Dans le cas où vous êtes intéressé, pourriez-vous svp envoyer votre CV au format Word en indiquant votre disponibilité ainsi qu'une fourchette de vos prétentions salariales ou de votre tarification journalière si vous êtes indépendant ?
Developpeur Java Spark Angular

Notre client recherche un Développeur Java Spark Angular , profil Confirmé 3-5 ans d'expérience Obligatoire : Java, Spark, Angular Mission : 6 mois avec possibilité d'être prolongé Télétravail : 2 jours par semaine (non négociable) Secteur : Divertissement L'entreprise souhaite migrer plusieurs jobs Datastage vers Spark, une plateforme de traitement de données Big Data. Le consultant devra travailler sur la plateforme Spark pour réaliser les évolutions nécessaires. L'environnement : Java , Angular, Spark, Kafka, AWS
Data Engineer – Java / Spark (F/H)

📑 CDI (36 - 40K€) / Freelance / Portage Salarial - 🏠 2 jours de télétravail / semaine - 📍 Toulouse - 🛠 Expérience de 2/3 ans minimum Rejoignez une équipe passionnée et boostez la transformation Big Data ! 🚀 Nous accompagnons notre client pour renforcer une équipe spécialisée dans la gestion et l’industrialisation des traitements de données massifs et recherchons un.e Data Engineer. Vous interviendrez sur une plateforme Big Data dédiée à l’exploitation de larges volumes de données, utilisée pour des analyses avancées et des modèles prédictifs. Votre défi à relever 🎯 En tant que Data Engineer, vous aurez un rôle clé dans la mise en place et l’optimisation des pipelines de données. Vous serez en interaction avec des équipes pluridisciplinaires (développeurs, data scientists, métiers) pour construire des solutions performantes et scalables.
Data Engineer - Python - Spark - Airflow

Dans le cadre d'une migration vers la nouvelle plateforme Data Groupe , nous recherchons un Data Engineer Python - Spark - Airflow , pour renforcer les équipes de notre client. Missions : Réalisation des cas d’usage de bout en bout Application des règles de bonnes pratiques Réalise des développements maintenables, scalables, réutilisables et optimisés Réalise des développements de qualité et performants Réalise de la documentation technique à la fin de chaque sprint Exploite et déploie de manière propre sur GIT (version, repository, nom de l’US ou la Feature…) Réalise des tests techniques automatisés (tests unitaires, tests de non-régression…) et les traces Applique le devoir de conseil Travail en équipe Propose des solutions, des alternatives et débloque les autres développeurs si besoinAppui et aide les Product Owner si besoin Réalise le modèle de données en support avec la gouvernance, Product Owner et le data analyst Explique et effectue du support auprès des data analyst notamment sur la structure des données et les modèles en base de données Respecte les règles de nommage imposée par l’entreprise
Expertise technique Java / Spark / Angular

Fiche de Poste – Expert Technique Java / Spark / Angular Localisation : Paris Expérience : 10 à 15 ans Contexte : Le bénéficiaire recherche un Expert Technique Java / Spark / Angular pour accompagner les évolutions réglementaires des plateformes de projections des paramètres de risque et de simulation d’impact des chocs sur le coût du risque et les provisions. L’objectif est d’assurer le bon fonctionnement et l’évolution des moteurs de calculs réglementaires tout en migrant les applications vers le Cloud DMZR.
Tech Lead DATA - Python - Spark - Airflow

Dans le cadre d'une migration vers la nouvelle plateforme Data Groupe , nous recherchons un Tech Lead Data - Python - Spark - Airflow , pour renforcer les équipes de notre client : Missions : Analyse des besoins métier dans la phase du cadrage, conception d’une architecture technique et applicative et estimation du macro-chiffrage de réalisation ; définition des différents scénarios possibles et établissement des dossiers de décision associés. Contribution à la mise en œuvre de l’architecture technique des projets en lien avec les acteurs externes et contribution à la mise en œuvre de l’architecture applicative des projets en lien avec les intervenants. Participation à l’industrialisation et la documentation technique du projet Analyse des demandes d’évolution fonctionnelles : identification des impacts, préconisations techniques Conception et réalisation de l’architecture en cohérence avec le cadre d’architecture du service Conception et modélisation du modèle de données Support auprès de l’équipe Agile sur les aspects techniques : bonnes pratiques, résolution de problèmes techniques complexes, collecte des éléments nécessaires auprès des intervenants fonctionnels pour la bonne réalisation des taches, utilisation de l’outillage DevOps souhaité par l’ENTREPRISE (Gitlab, Ansible, Jenkins, Visual Studio…) Proposition, conception, rédaction des spécifications techniques et réalisation à la demande de l’'entreprise pour la mise en œuvre des bonnes pratiques Data : o Procédures de test automatisées o Optimisation des performances Contrôle de la qualité et conformité des développements, contrôle de la cohérence technique des réalisations par rapport aux exigences ; contrôle de la cohésion technique des développements réalisés. Exploitation de l’environnement de développement mis à disposition par l’ENTREPRISE dont installation des briques logicielles fournies par l’ENTREPRISE pour la mise en œuvre des développements Contribution à la rédaction du DAT en cas d’évolutions d’infrastructure. Mise en place d’exploratoires (Proof of Concept)
Développeur Python / Spark - Secteur Défense

Dans le cadre d’un projet stratégique pour le secteur de la défense, nous recherchons un Développeur Python / Spark afin de renforcer une équipe en charge de la gestion et du traitement de grandes volumétries de données. Le projet vise à concevoir et optimiser une plateforme de traitement et d’analyse de données massives afin d’améliorer la prise de décision et les capacités d’anticipation dans un environnement à haute criticité. Vous interviendrez dans un contexte sécurisé et réglementé , avec des exigences strictes en matière de cybersécurité, de confidentialité et de performances . L’objectif principal est de développer des solutions scalables et robustes , capables de traiter efficacement de grands ensembles de données en temps réel ou en mode batch. Vous travaillerez en étroite collaboration avec les équipes métiers, data scientists et architectes pour garantir la pertinence et l’efficacité des solutions mises en place.
Ingénieur BigData GCP Hadoop Spark-KARMA MoveToCloud
En tant qu’Ingénieur(e) Move To Cloud, vous intégrerez l’équipe KARMA Move To Cloud pour piloter la migration du système de Revenue Management KARMA, vers Google Cloud Platform (GCP). Vos missions incluront : Migration des workloads Hadoop /Spark vers GCP ( Dataproc, BigQuery, GCS ). Développement et optimisation de pipelines de données. Mise en œuvre d’infrastructures avec Terraform et automatisation via Github Actions. Collaboration avec l’équipe pour assurer une transition fluide et performante..
Ingénieur Support Java / Spark

Il a pour mission de définir la politique informatique et de coordonner sa mise en œuvre pour : • Doter les métiers et fonctions de support des outils nécessaires à leur activité, en leur offrant un niveau de service adapté à leurs objectifs et contraintes ; • Optimiser les dépenses des systèmes d’information, en garantissant leur alignement sur les objectifs des métiers et fonctions et leur efficacité au niveau du Groupe. . Nous recherchons un Ingénieur Support Applicatif sur SI Risques Opérationnels: Description du poste : Maintien en condition opérationnelle du parc applicatif confié : o Suivi opérationnel quotidien de l’activité de Fonctionnement (Incidents, demandes, problèmes) o Gestion des incidents Niveau 1, 2 et 3. o Suivi de la production applicative. o Gestion des demandes utilisateurs o Gestion des changements sur le périmètre. o Conseiller les utilisateurs sur l'utilisation du système applicatif o Accompagner les équipes projet risques et apporter votre expertise sur les différents environnements techniques ( Java / Spark / Bigdata / hadoop..) o Assurer les interactions avec les acteurs de l’écosystème IT, les architectes ICA et la production (CAGIP pour l’ensemble du Groupe CA) o Participer aux différents comités équipes projets / fonctionnement Être le premier niveau de contact fonctionnement IT des Métiers ((conseils, aide sur documentation / communication /gestion de cas atypique, ...) Participation aux Gouvernance Métier (Comités de suivi de RUN, COPIL...). Gérer le plan d’amélioration sur les applications incidentées et suivi des plans d’actions de remédiations. Gérer le plan d’obsolescence sur son périmètre. Traitement des vulnérabilités Participer aux comités avec CA-GIP, la sécurité (Plans de secours, Suivi des failles de sécurité...), les Centre de Service Externes, les Métiers. Produire les indicateurs, les supports pour les métiers pour ICA sur le périmètre Le cas échéant, de prendre en charge des sujets transverses ou dédiés Livrables attendus : Gestion et suivi de la production day to day Pilotage de l’activité sur le périmètre Documentations techniques Supports des métiers
Support Applicatif Java/ Spark / Risques Opérationnels

Pour l'un de nos clients grand compte, nous recherchons un Ingénieur Support Applicatif SI Risques Opérationnels . Vous intégrerez une entité regroupant l'ensemble des départements IT en charge du développement et de l'exploitation du système d’information ainsi que des infrastructures technologiques du groupe. Fournir aux métiers et fonctions de support les outils nécessaires à leurs activités, tout en garantissant un niveau de service adapté à leurs besoins et contraintes. Offrir des prestations informatiques pour diverses entités du groupe Suivi opérationnel quotidien de l’activité de fonctionnement (Incidents, demandes, problèmes). Gestion des incidents Niveau 1, 2 et 3 . Suivi de la production applicative. Gestion des demandes utilisateurs et des changements sur le périmètre. Conseil aux utilisateurs sur l'utilisation du système applicatif. Accompagnement des équipes projet risques avec expertise sur les environnements techniques : Java / Spark / BigData / Hadoop Gestion des plans d'amélioration pour les applications incidentées et suivi des plans d’actions de remédiation. Gestion du plan d’obsolescence sur le périmètre. Traitement des vulnérabilités. Participation aux comités de sécurité (plans de secours, suivi des failles de sécurité). Production des indicateurs et des supports pour les métiers.
Data Engineer Spark

Dans le cadre de sa transformation digitale et de l’optimisation de son exploitation des données, notre client, un acteur bancaire majeur, recherche un Data Engineer Spark . Votre mission consistera à concevoir, développer et optimiser des pipelines de données massives en exploitant Apache Spark sur une infrastructure distribuée. Vous serez chargé(e) de garantir la robustesse, la performance et la scalabilité des traitements de données tout en assurant leur intégration fluide avec les autres composants du data lake . En lien avec les équipes Data Science et IT , vous interviendrez sur l’optimisation des traitements distribués, l’industrialisation des flux et l’automatisation des processus, afin d’améliorer la qualité et la disponibilité des données en production. Vous contribuerez également à la mise en place des meilleures pratiques en matière de Big Data Engineering et de gestion des performances des architectures distribuées.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Gagnez un MacBook et boostez votre activité avec Weshakeil y a 6 heures
- entrerprise freelance incompatible avec le portage salarial?il y a 8 heures
- Résultat de l'exerciceil y a 8 heures
- TVA et facturation en entreprise individuelleil y a 9 heures
- IA et Freelancing : Un Duo Gagnant ?il y a 9 heures
- Peut on écrire son bilan comptable à la main?il y a 9 heures