Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
Data Engineer GCP & JAVA
Nous recherchons, pour le compte de notre client, une entreprise de premier plan dans son secteur, un Data Engineer expérimenté avec une expertise confirmée sur la plateforme Google Cloud Platform (GCP) . Ce poste clé offre une opportunité unique de contribuer à des projets ambitieux et stratégiques dans un environnement technique avancé et collaboratif. En tant que Data Engineer, vous serez responsable de la conception, du développement et de l'optimisation des pipelines de données pour répondre aux besoins métiers et techniques du client. Vous jouerez un rôle essentiel dans la gestion des flux de données, l’automatisation des processus et l’exploitation des données dans un environnement cloud moderne. Vous serez amené(e) à : Concevoir et implémenter des pipelines de données robustes et scalables. Collaborer avec les équipes Data, IT et métier pour comprendre les besoins et définir les solutions adaptées. Optimiser les performances des systèmes de données pour garantir rapidité et fiabilité. Assurer la qualité et la gouvernance des données en suivant les meilleures pratiques. Automatiser et orchestrer les flux de données avec des outils tels qu’Apache Airflow. Contribuer à l’amélioration continue de l’infrastructure Data, notamment via Terraform. Pour réussir dans ce rôle, vous devrez démontrer une expertise sur les technologies et outils suivants : Langages et Frameworks : Maîtrise de Java et du framework Spring Boot . Utilisation avancée de Maven pour la gestion des dépendances et la construction des projets. Big Data & Cloud : Expertise dans l’utilisation de BigQuery pour l’analyse et la gestion des données à grande échelle. Solide expérience avec Dataflow pour le traitement des données en temps réel ou par lots. Familiarité avec Cloud Run pour déployer et exécuter des conteneurs applicatifs. Orchestration et automatisation : Expérience significative avec Apache Airflow pour la gestion et l’aut
Mission freelance
DATA ENGINEER GCP BIGQUERY
Mission : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons).
Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Mission freelance
Responsable d'application
Le domaine CASHING & PAYMENT recherche son Responsable d'applications ! La team IT de ce domaine assure aujourd’hui l'exploitation des solutions d’encaissement et de monétique , leur maintien en condition opérationnelle (produits communs et locaux) et les évolutions des briques locales. En tant que responsable des applications, vous êtes en relation avec les équipes produits, les représentants du métier, nos magasins et différents partenaires (financement, monétiques). Le Responsable Applications est au centre des opérations, du RUN de produits et apporte une expertise fonctionnelle et technique dans la chaîne support, cadre les nouveaux besoins pour les produits locaux ainsi que pour les demandes d'évolutions fonctionnelles de produits communs. ⚡Votre futur métier : Vous êtes l’un des référents sur la partie RUN et participez activement aux projets de l’équipe. Vous avez notamment pour responsabilités de : ● Assurer et coordonner les activités d'évolution et de maintenance corrective et applicative du système, ● Assurer le support applicatif de niveau 3 dans le respect du contrat de services dans toutes ses composantes (qualité, sécurité, SLA), ● Maintenir les connaissances fonctionnelles et techniques nécessaires à la pérennité de l'application. En tant que Responsable d’Applications, vous : GESTION DE LA CONFIGURATION LOGICIELLE : ● Assistez et conseillez sur l'utilisation du système applicatif dont vous avez la charge, ● Vérifiez et assurez la qualité et la performance du fonctionnement des applications dont vous êtes responsable, ● Coordonnez la maintenance corrective, préventive et évolutive, ● Cadrez les nouveaux besoins sur les applications locales, ● Analysez et priorisez les demandes d'évolutions sur les produits. GESTION DE LA QUALITÉ DE LA CONFIGURATION : ● Appliquez les normes, méthodes et outils, ● Vous assurez de la cartographie applicative utilisée dans le cadre du référentiel d'urbanisation, ● Identifiez et mettez à jour le référentiel documentaire du système applicatif dont vous êtes responsable, ● Assurez la pérennité des connaissances sur les solutions apportées dans le cadre de la maintenance (Knowledge Management). COMMUNICATION & ORGANISATION : ● Vous êtes l'interlocuteur privilégié de la DSI, des equipes métiers , avec les utilisateurs de votre application, mais aussi avec la production informatique, ● Vous savez déléguer votre activité quand c’est nécessaire, et la piloter. VOS LIVRABLES : ● Gestion de configuration du logiciel applicatif à jour, ● Procédures d'exploitation et de support, ● Documentations et modules de formation.
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Mission freelance
Architecte système (Windows, HyperV, VMWare, Cloud Azure & Cloud AWS)
Description du poste : L'Architecte système sera responsable de la conception, de l'implémentation et de l'optimisation de l'infrastructure système du client. Le candidat idéal doit avoir une vision stratégique et une expertise technique approfondie pour guider les décisions architecturales du projet Carve-in-Out. Responsabilités principales : Concevoir et mettre en œuvre des architectures système robustes et évolutives Optimiser les performances et la sécurité des environnements Windows, HyperV et VMWare Élaborer des stratégies de migration et d'intégration pour les environnements cloud Azure et AWS Collaborer avec les équipes techniques et les parties prenantes du projet Fournir des conseils techniques et des recommandations pour améliorer l'infrastructure
Offre d'emploi
Architecte data cloud azure
Bonjour, Pour le compte de notre client, nous recherchons un architecte data cloud azure. Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci dessous. Livrable n°1 : Cadrage et chiffrage des projets + Lot 1 : Accompagnement au cadrage du besoin auprès de nos clients + Lot 2 : Réalisation d’études et formalisation des architectures envisagées en appui sur les solutions cloud adaptées au besoin + Lot 3 : Contribution au chiffrage global du projet + Lot 4 : Réalisation éventuelle de Proof Of Technologies le cas échéant Livrable n°2 : Conception technique de la solution + Lot 1 : Formalisation des documents standards (DAL, DAT) + Lot 2 : Veiller à la conformité de la solution sur les plans standards technologiques et en phase à la politique de sécurisation du SI. + Lot 3 : Concevoir, développer, déployer et maintenir des reportings construits autour de Power BI en environnement BI Microsoft ; Livrable n°3 : Accompagner la prise en charge du build projet + Lot n°1 : Assurer une passation aux équipes de réalisation + Lot n°2 : Le cas échéant, apporter de l’expertise lors de la phase de build (automatisation…)
Mission freelance
Senior Data Engineer - Azure & Power BI
Mission temps plein longue durée à pourvoir début 2025 2 jours de remote/sem Mise en œuvre de projets data = missions principales o Data engineering : mise à disposition des données dans le datalake au format delta lake (Azure Databricks) ▪ Conception des flux data ▪ Développement des flux data ▪ Mise en œuvre avec le superviseur des flux du monitoring de ceux-ci ▪ Intégration des tests unitaires o Coordination des intervenants SI o Rédaction de spécifications o Etudes, analyses de données et Requêtages o Développement des briques transversales o Mise en place des exigences RGPD/SSI
Mission freelance
Architecte Technique Cloud Expert
Vous intégrerez l'équipe Architecte Cloud , en charge de l'évolution des Plateformes d'Échanges , afin de : Participer à la transformation des échanges sur Kafka et Apigee. Renforcer la résilience des plateformes existantes. Participer à la conception, au cadrage, et au suivi de l’implémentation des solutions choisies. Participation aux cérémonies agiles : Collaborer avec l’équipe architecte Cloud dans un cadre Agile. Conception et documentation : Rédiger un dossier de choix pour sélectionner une solution adaptée. Produire la documentation nécessaire au cadrage et à la validation de la solution. Accompagnement de la mise en œuvre : Travailler en étroite collaboration avec l’équipe Plateforme Échange PDV & Partenaires pour implémenter la solution. Dossier de choix de la solution d'échange. Documents de cadrage et d'architecture. Suivi et accompagnement de la mise en production.
Mission freelance
Azure Data engineer & BI
Nous recherchons pour notre client un data engineer pour une mission longue a Gennevilliers Contexte de la mission - Equipe : DataFab qui se compose de 12 collaborateurs : dont 1 manager, 2 Architecte Data, 3 BI et 6 Data Engineer; Missions et tâches : Mission principales ; Mise en oeuvre de projets data ▪ Data engineering : mise à disposition des données dans le datalake au format delta lake (Azure Databricks) ▪ Conception des flux data ▪ Développement des pipelines de données avec ADF et Databricks (ingestion Bronze/ Implémentation Silver) ▪ Mise en oeuvre avec le superviseur des flux du monitoring de ceux-ci ▪ Intégration des tests unitaires o Analyse & BI : ▪ Analyse des besoins ▪ Conception, élaboration et déploiement des rapports et tableaux de bord sous Power BI à partir du Gold ▪ Modélisation des datamarts ▪ Analyses de données et Requêtages ▪ Maintenance évolutive et corrective o Coordination des intervenants SI o Rédaction de spécifications & Documentation o Mise en place des exigences RGPD/SSI
Offre d'emploi
Data Engineer GCP
À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP) , passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions 🏗️ : 📊 Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. 🚀 Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. 🛠️ Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. 🕹️ Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. 🤝 Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique 💻 : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow Langages de Programmation : Python, SQL Outils de DevOps : Terraform, Docker, Kubernetes Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : Expérience : Minimum 4 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? 🌐 Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.
Mission freelance
FREELANCE – Tech Lead Data (H/F)
Notre client basé à Avignon (84) est à la recherche d’un Tech Lead Data (H/F) freelance pour participer au maintien et à la modernisation d’une plateforme Data Cloud et d’une plateforme sécurisée C3. MISSIONS Au sein d’une équipe agile de 7 personnes, vous serez amené à : · Développer des rapports de visualisation de données sous PowerBi · Développer les traitements de données · Contribuer à la définition de la stratégie technique Data du projet · Développer des uses cases métier ENVIRONNEMENT TECHNIQUE · PYTHON · SQL · Azure Data Factory ou AWS Glue · Apache Nifi / Databricks, · Oracle, PowerBI
Offre d'emploi
Data Engineer Senior - Spark/Scala/Databricks
Compétences technologiques indispensables : Maîtrise de l'API Scala Spark (principalement pour les traitements batch). Expertise dans l'optimisation des performances Spark, avec une expérience avérée dans le traitement de volumétries importantes et complexes. Solide expérience en développement Scala et bonnes pratiques de codage. Compétences en build Maven et gestion des dépendances. Expérience de travail dans un environnement cloud (idéalement sur Azure ou AWS ). Compétences appréciées : Connaissance d' IBM Datastage et de son écosystème. Expérience avec Databricks , ses outils et ses services. Compétences transverses : Aisance relationnelle et capacité à travailler efficacement avec différentes parties prenantes. Esprit d'équipe et forte capacité d'adaptation aux évolutions des projets. Rigueur, sens de l’analyse et capacité à faire preuve d’une synthèse pertinente. Autonomie dans la gestion des tâches et des projets. Force de proposition pour améliorer les processus et l’efficacité des projets. Sens des priorités et gestion rigoureuse des délais dans un environnement dynamique. Capacité à travailler en mode multi-projets , tout en maintenant une vision globale des enjeux. Appétence pour comprendre les besoins clients et fonctionnels, et capacité à transformer ces besoins en solutions techniques pertinentes. Compétences en mentorat et partage de connaissances au sein de l'équipe.
Offre d'emploi
Data engineer (F/H) - Lille
Vous serez intégré dans une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps) En vous appuyant sur la data ARF exposée, vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD Interlocuteur lors de la contribution à des projets dans le domaine de la Supply Conception de solutions en respectant les normes et framework data Développement, Modélisation sous la gouvernance de l'architecture data Contribution au développement d'appli Tests Reporting RUN : Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 15 applications) gestion des incidents mise en production (via Git) suivi de flux EXPERTISE : Montée en compétence sur notre SI et notre domaine de responsabilité Documentation si nécessaire
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.