Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Architecte Databricks / Data Engineer – (Lyon)

Dans le cadre du renforcement de la plateforme DARWIN , dédiée à la gestion des énergies renouvelables, nous recherchons un Architecte Databricks . Cette mission de longue durée, basée à Lyon , s’inscrit dans un contexte 100% Azure et agile. Missions Être le référent Databricks en collaboration avec l’architecte et le responsable technique. Assurer la cohérence de la stack CI/CD (Azure DevOps) et des processus GIT . Garantir la qualité des développements Databricks avec SonarQ . Participer à la construction du patrimoine Terraform Databricks . Développer en Python, C#, Vue.JS, .NET Core 3.1, .NET 6, Node.JS, SQL . Déployer sur les environnements de test et production . Interagir avec les équipes Data et Wonderware .
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
DataOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation
Architecte solutions data (H/F)

Teksystems recherche pour l'un de ses clients un(e) Architecte solutions data (H/F) Vous intégrerez la guilde Architecture Solutions au sein la Direction Technologie dont les missions sont principalement : - Être force de proposition en concevant l’architecture des solutions sur différents scénarios - Participer à l’élaboration d’une cible d’architecture en collaborant avec les architectes d’entreprise. - Concevoir l'architecture logicielle en partenariat avec les équipes de développement - Cartographier les flux des solutions - Garantir la qualité de la réalisation - Sécuriser la qualité de service en s’appuyant sur la matrice de performance du système applicatif concerné - S'assurer du respect des standards - Apporter votre compétence technique - Faire respecter les patterns d’architecture inscrits au référentiel
Administrateur plateforme Big Data (Cloudera Data Platform)
Les rôles de la DSI sur cette plateforme nommée GAIA sont multiples : • Développer les pipelines d’ingestion de nouvelles données • Industrialiser les développements (ingestions, data preps, algorithmes) • Assurer le bon fonctionnement technique de la plateforme • Assurer le support aux utilisateurs en cas d’anomalie et de questions sur l’utilisation de la plateforme La DSI souhaite renforcer son équipe d’administrateurs BigData grâce à une prestation d’assistance. Expertises / compétences Compétences techniques nécessaires • Linux (RedHat 8), Shell scripting • Security (LDAP, Kerberos, SSL, IDM) • Cloudera, HDFS, YARN, Hive, Oozie, Spark, Knox, Zeppelin, Nifi • Centreon, Ansible • Python et Scala sur environnement distribué. • SQL • Maitrise des systèmes d'informations et logiciels (outils bureautiques courants, SharePoint, Power BI, etc.) Soft skills : • Communiquer efficacement (ex : présentation des incidents en Comité de Pilotage Big Data). La mission se fait en relation avec les utilisateurs métiers et en interaction avec l’équipe des administrateurs et des data Engineers de la plateforme. Il est donc essentiel que les communications soient les plus fluides possibles, • Aimer travailler en équipe, • Être réactif et autonome, • Dialoguer avec aisance pour coordonner les intervenants sur des domaines techniques différents, • Esprit de synthèse pour rédiger des documentations utilisateur facilement utilisables et en minimisant les erreurs sur le contenu. Activités La prestation consiste à assurer l’administration des plateformes BigData ainsi que le support aux utilisateurs tant sur les anomalies que sur les demandes de support à l’utilisation de la plateforme GAIA. En détail, l'ensemble des tâches des administrateurs sont les suivantes : Exploitation de la plateforme : • Configurer, surveiller et optimiser les systèmes de stockage et de traitement des données, tels que les clusters de serveurs et les bases de données distribuées. (Cloudera) • Effectuer les taches de MCO quotidiennes (vérification de l’état des jobs et de la plateforme) • Assurer la sécurité des données en mettant en place des mesures de protection, des politiques de contrôle d’accès et des stratégies de sauvegarde/récupération. • Assurer l’ordonnancement des chaines d’ingestion et des analytiques tournant sur les plateformes • Participer aux projets d’évolution des plateformes BigData • Gérer la performance des plateformes Big Data. • Participer à la maintenance des environnements en appliquant des mises à jour. • Automatiser les tâches récurrentes à l’aide de scripts pour optimiser la gestion des systèmes. • Produire et maintenir la documentation d’exploitation de la plateforme • Contribuer à l’amélioration continue de l’exploitabilité et de la qualité de service de la plateforme • Maintenir et améliorer les KPI de suivi du fonctionnement de la plateforme Le livrable associé est la documentation à jour des dernières modifications de paramétrage de la plateforme.
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Adminsitrateur plateforme Big Data (Cloudera Data Platform)

Dans le cadre du renforcement de l’administration de sa plateforme Big Data, un client basé en Seine-et-Marne recherche un Administrateur Big Data senior pour intervenir sur son environnement on-premise, bâti autour de la suite Cloudera Data Platform. Cette plateforme, au cœur de ses activités de Service Après-Vente, requiert une expertise pointue sur les outils d’administration, la sécurité, le monitoring, ainsi que sur les technologies de traitement distribué et de scripting. Le consultant interviendra sur l’exploitation, l’optimisation et le support technique de la plateforme GAIA, tout en participant à son amélioration continue, à la documentation et au support aux utilisateurs.
Data Business analyst

Vous rejoignez la direction Data & Innovation d’une grande banque d’investissement, au cœur des enjeux de transformation data-driven des métiers bancaires de la CIB (Corporate & Investment Banking) . Cette équipe mène des projets à fort impact autour de la data governance, du data analytics et de l’ intelligence artificielle , en lien direct avec les entités métiers. Dans le cadre du projet stratégique de mise en place d’un nouveau référentiel de titres , vous interviendrez sur un chantier structurant au service de la croissance des activités de trading, Global Securities Financing et Fixed Income . 🔹 Business Analysis Recueillir et formaliser les besoins métiers liés aux référentiels titres Travailler en étroite collaboration avec les équipes de trading , risques, opérations, IT, architectes, etc. Suivre la roadmap de déploiement des titres FI (bonds, CDS, CDX, ABS…) Piloter l’exécution des spécifications fonctionnelles en lien avec le chef de projet IT 🔹 Data Gouvernance & Qualité Participer à la mise en œuvre des process de gouvernance de données au sein du nouveau référentiel Accompagner la conduite du changement auprès des métiers Proposer et développer des dashboards Power BI pour le suivi de la qualité des données : Analyse du besoin Modélisation et création de la base de travail Développement de rapports interactifs
Expert Infra Cloud et Big Data
Au sein d'une organisation dynamique dans le domaine du numérique, vous interviendrez sur la gestion et l’optimisation d’infrastructures cloud, ainsi que sur la gestion de plateformes de données à grande échelle. Vous serez responsable de l’industrialisation et de l’automatisation des services cloud pour garantir leur performance et leur évolutivité. Compétences techniques requises : Expertise dans les environnements cloud public (AWS, GCP, OVH) avec une préférence pour GCP . Maîtrise des outils d’automatisation et d'industrialisation des infrastructures ( Puppet , Ansible , Terraform ). Solides compétences en Big Data et technologies associées (notamment Spark , Python , Hadoop , SQL ). Expérience avec des solutions de déploiement et d’orchestration ( Jenkins , GitLab , Airflow ). Bonne culture des systèmes Unix/Linux et des environnements virtualisés. Compétences complémentaires appréciées : Expérience avec des architectures Data telles que Lakehouse et Datalake . Connaissance des solutions de stockage et traitement des données (ex : Delta , Parquet , DBT , BigQuery ). Bonne maîtrise des concepts systèmes , réseaux et virtualisation . Expérience sur des sites web à fort trafic .
Ingénieur infrastructure et d’exploitation de la plateforme Data

Contexte : La mission concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. MISSIONS Le candidat participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - interventions sur incidents - la documentation Le prestataire sera la référence technique auprès des acteurs projets : - Ingénieurs d’exploitation - Développeurs - PO/PM - Prestataires externes - Maitrise de l’anglais technique (lu/écrit) - Veille technologique
Expert Devops Data/Infra GCP

Insyco recherche actuellement pour l'un de ses clients basés à Paris : Expert Devops Data/Infra GCP Bonjour, Nous recherchons pour notre client grand compte un Expert Devops Data/Infra GCP répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/DATA/4757 en objet du messag
Expert Cloud GCP et Big Data
Genious Systèmes recherche pour son client un(e) Expert Cloud GCP et Big Data F/H Contexte de la prestation La prestation se déroulera au sein de de la Direction Technique du Numérique du client. Elle concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data du Numérique du client, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : BUILD des services l’analyse des besoins liés à l’hébergement des développements l’adaptation de l’industrialisation des infrastructures pour les changements la planification et exécution des changements, RUN des services et l’exploitation quotidienne la remontée d’alarmes diagnostic l’analyse des incidents interventionx sur incidents la documentation Le prestataire sera la référence technique auprès des acteurs projets : Ingénieurs d’exploitation Développeurs PO/PM Prestataires externes Maitrise de l’anglais technique (lu/écrit) Veille technologique
Développeur Big Data GCP - ENTRE 3 ET 6 ANS

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
Product Owner on Cloud Azure : Monitoring, Observabilité & Data - 92 - English mandatory

📢 𝐏𝐫𝐨𝐝𝐮𝐜𝐭 𝐎𝐰𝐧𝐞𝐫 𝐨𝐧 𝐂𝐥𝐨𝐮𝐝 𝐀𝐳𝐮𝐫𝐞 – 𝐌𝐨𝐧𝐢𝐭𝐨𝐫𝐢𝐧𝐠, 𝐎𝐛𝐬𝐞𝐫𝐯𝐚𝐛𝐢𝐥𝐢𝐭𝐞́ & 𝐃𝐚𝐭𝐚 📍 𝟗𝟐 – 𝐏𝐫𝐞́𝐬𝐞𝐧𝐭𝐢𝐞𝐥 𝐡𝐲𝐛𝐫𝐢𝐝𝐞 🗓 𝐀𝐒𝐀𝐏 🎙️ 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐟𝐥𝐮𝐢𝐝𝐞 𝐨𝐛𝐥𝐢𝐠𝐚𝐭𝐨𝐢𝐫𝐞 ✒️ 𝐅𝐫𝐞𝐞𝐥𝐚𝐧𝐜𝐞 𝐨𝐧𝐥𝐲 - 𝐏𝐚𝐬 𝐝𝐞 𝐒𝐓𝐓 🎯 𝐕𝐨𝐭𝐫𝐞 𝐦𝐢𝐬𝐬𝐢𝐨𝐧 Dans un environnement cloud et data-driven, vous piloterez la roadmap produit d'une équipe dédiée à l'Observabilité et à la Data, en assurant la bonne traduction des besoins métier en solutions techniques performantes. 🔍 𝐕𝐨𝐬 𝐨𝐛𝐣𝐞𝐜𝐭𝐢𝐟𝐬 ✅ Recueillir, formaliser et prioriser les besoins métiers et techniques ✅ Définir et maintenir le backlog produit ✅ Assurer la qualité et la pertinence des solutions livrées ✅ Collaborer avec les équipes de développement et animer les cérémonies Agile/Scrum ✅ Suivre et analyser les KPIs de performance pour l’amélioration continue ✅ Assurer une veille technologique sur les outils de monitoring et data 🛠 𝐄𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐭𝐞𝐜𝐡𝐧𝐢𝐪𝐮𝐞 Cloud & Conteneurs = > Azure Kubernetes Service (AKS), Azure Functions Stockage & Bases de données => Azure Blob Storage, ADLS Gen2, PostgreSQL, ElasticSearch, Delta Lake Streaming & Messagerie => Event Hub, RabbitMQ Data Engineering & Logging => Apache Airflow, Apache Spark, Logstash, Azure Log Analytics Visualisation => Grafana CI/CD & Collaboration => GitHub #ProductOwner #Data #Monitoring #Observabilité #Cloud #Azure
Data Engineer H/F

Plus qu'un métier, Itéa a pour vocation de déceler et révéler les bons profils avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d’un CV. Aujourd’hui, nous recherchons pour l’un de nos clients, un Data Engineer H/F et vous présentons les points clés du poste : Poste en CDI Basé à Strasbourg ou Metz Secteur public Vos missions seront : Participer à l'audit fonctionnel et à la compréhension des besoins métiers Rédiger les spécifications et le cahier des charges Réaliser les MCP et MPD Mettre en place de contrôles de données et réalisation de tableaux de bords Participer aux réunions d'avancement Suivre et évaluer la bonne mise en place via des tests d'impacts Gérer la bonne mise à disposition de la documentation
DATA ENGINEER DATABRICKS/POWER BI SENIOR"

CONTEXTE En tant que DATA ENGINEER spécialisé en traitement de données, vous intégrerez une équipe pour concevoir, réaliser, suivre et intégrer des travaux autour de la valorisation de la donnée. MISSIONS • Étude et rédaction d’US, en particulier sur des sujets liés à la data. • Maîtrise des bonnes pratiques de développement (utilisation de git, lisibilité du code, tests, intégration continue). • Fournir une vision complète des solutions data pour le programme. • La maitrise de DATABRICKS est impérative Résultats attendus et/ou livrables • Documentation et spécifications des développements à réaliser. La présentation interactive avec Power BI est à privilégiée • Analyse de données • Développements DATABRICKS • Schéma d’architecture data en lien avec les besoins • Rapports d’avancement : o Rapports hebdomadaires et mensuels sur l’état d’avancement du projet et des livrables, les points bloquants, les risques et les actions correctives. o Indicateurs associés propres au projet. • Documentation technique : o Documentation complète des solutions techniques mises en œuvre.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Quel statue pour mes futures activités freelanceil y a 6 heures
- État du marché IT : quelles perspectives pour 2025 ?Quelle stratégie adopter en 2025 ? CDI, international ou IA ?il y a 7 heures
- Formation PMil y a 13 heures
- Avis compte professionnel "PROPULSE"il y a 17 heures
- 1 an sans mission, pluseurs dizaine d'entretiens client, le marché va si mal que ca ?il y a 17 heures
- Portage Commercialil y a 20 heures