Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 236 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Engineer SQL (FH)

Taleo Capital
Publiée le
Data Warehouse
DevOps
Hadoop

6 mois
470-550 €
Paris, France

Notre client bancaire recherche un Data Engineer SQL confirmé (6 à 9 ans) pour rejoindre ses équipes IT. Le projet supporte plusieurs Business Lines, telles que Global Market, CCO, Compliance, et On Boarding, avec des équipes Agile localisées à Paris (80%) et Porto (20%). La mission est centrée sur l'impact de la migration vers Windows 11, incluant des modifications des process techniques, des optimisations, et le support niveau 2. Objectifs de la mission : Le consultant sera intégré dans le chapter « Data & BI Client - Data Engineering », et devra : Assurer la maintenance évolutive des flux de données : SQL : Modélisation, transformation des données, calculs d’indicateurs. Ordonnancement des traitements via Ctrl-M. Gestion des flux de données (fichiers plats, XML, web services). Optimisation SQL. Gérer l'impact de la migration Windows 11 : adaptation des outils, processus et pipelines. Développer et implémenter des corrections et améliorations techniques. Réaliser des tests unitaires et participer aux recettes. Participer au support opérationnel (niveau 2) et à la méthodologie Agile-Kanban (daily meetings, rétrospectives). Contribuer à la rédaction de documentations techniques. Participer à des astreintes techniques.

CDI
Freelance

Offre d'emploi
Data Analyst/Engineer H/F

OTTEO
Publiée le
API REST
Automatisation
CI/CD

6 mois
38k-48k €
Lille, Hauts-de-France

Votre 1er projet : Vous accompagnerez notre client, un grand compte historique de la région. Votre intégrerez une équipe dédiée à la conception d’un outil dédié à l’autonomie des clients. Dans ce contexte, nous recherchons un Analytics Engineer ou BI Engineer pour soutenir l’activité de notre client. Vous travaillerez dans environnement international et anglophone avec des standards de haut niveau. Vos missions : · Construire et optimiser les pipelines de données dans notre entrepôt de données · Effectuer des analyses pour répondre aux différentes opportunités commerciales · Construire, automatiser et maintenir des rapports avec nos outils BI. · Assurer la cohérence et la qualité des données transmises en mettant en œuvre la stratégie de gestion des données convenue. Vous vous y voyez déjà, pas vrai ? Ça tombe bien, ce n’est pas fini !

Freelance

Mission freelance
Data engineer (H/F)

Anywr freelance
Publiée le
BigQuery
Google Cloud Platform

12 mois
100-440 €
Lille, Hauts-de-France

Le profil interviendra au sein de la direction informatique , dans le service Data Analytics. Il intégrera une Squad Data : Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Profil avec un minimum de 5 ans d'expériences.

Freelance
CDI

Offre d'emploi
Data Analyst orienté Business Object

ALLEGIS GROUP
Publiée le
Business Object
Microsoft Power BI
Migration

6 mois
12k-200k €
Hauts-de-Seine, France

Ce que vous ferez : -Collecte et analyse des besoins métier -Création de rapports opérationnels et de tableaux de bord (Power BI) -Analyses ad hoc utilisant des techniques de modélisation statistique avec R ou Python -Analyse de la performance métier avec définition et calcul des KPI pertinents -Présentation et communication des résultats d’études à l’équipe métier En s’appuyant sur une solide formation en statistiques, le Data Analyst formalisera les problématiques métier sous forme de modèles de données et de visualisations de données : -Ajustement saisonnier sur les séries temporelles -Modèles de régression (OLS / Logistique) -Définition des groupes de contrôle (échantillonnage) -Gestion avancée des données / encodage

CDI
Freelance

Offre d'emploi
Ingénieur Infra Cloud (AZURE/ GCP)

OCSI
Publiée le
Azure
Google Cloud Platform

12 mois
10k-61k €
Île-de-France, France

Rôle principal : Concevoir, déployer et maintenir les infrastructures cloud robustes et évolutives. Collaborer étroitement avec les équipes de développement logiciel, les équipes techniques et les architectes pour garantir des solutions performantes et sécurisées. Déploiement d’architectures cloud : En collaboration avec les architectes, l’ingénieur participera à l’élaboration des architectures cloud robustes en utilisant des services tels qu’Azure ou GCP. Le déploiement se fera via des outils comme Terraform et Ansible, qui permettent de décrire l’infrastructure en code et de la déployer de manière reproductible. Gestion des ressources cloud : L’ingénieur sera responsable de la création, de la configuration et de la gestion des ressources cloud. Il/elle devra surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Intégration dans les pipelines CI/CD : Travaillant en étroite collaboration avec les équipes de développement, l’ingénieur devra intégrer les meilleures pratiques d’infrastructure dans les pipelines CI/CD. Cela peut inclure l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, etc. Principales tâches : Résolution des problèmes d’infrastructure : Diagnostiquer et résoudre les problèmes liés à l’infrastructure cloud. Gestion des ressources cloud : Création, configuration et gestion des ressources cloud. Surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Intégration dans les pipelines CI/CD : Intégrer les meilleures pratiques d’infrastructure dans les pipelines CI/CD. Cela peut inclure l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, etc. Résolution des problèmes d’infrastructure : Diagnostiquer et résoudre les problèmes liés à l’infrastructure cloud. Cela peut inclure des problèmes de performance, de sécurité, de disponibilité, etc. Collaboration avec les équipes : Travailler en étroite collaboration avec les développeurs, les ingénieurs de production, les architectes et les autres membres de l’équipe afin de garantir que l’infrastructure répond aux besoins des applications. Participer à des réunions d’équipe, partager les connaissances et contribuer à l’amélioration continue des processus

Freelance

Mission freelance
Data Engineer GCP Finance

HIGHTEAM
Publiée le
Apache Spark
BigQuery
Google Cloud Platform

3 ans
400-550 €
Île-de-France, France

Dans ce cadre, nous recherchons un développeur Full Stack, ayant une solide expérience dans le Cloud GCP Récupérer les données issues de sources externes • Utiliser la puissance du Data Lake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le data Lake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des Spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data Lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Freelance

Mission freelance
Devops/développeur Java

VISIAN
Publiée le
AWS Cloud
Azure
Databricks

1 an
100-700 €
Bagneux, Île-de-France

Contexte L’équipe Infrastructure au sein de la Direction des Systèmes d’Information du client recherche un(e) profil DevOps/Developpeur Full Stack pour la gestion opérationnelle de ses infrastructures. • Une infrastructure MultiCloud (AWS – 90%, Azure, GCP) • L’hébergement de Portails Web (10 portails) et Services Backend (+200 applications dockerisées) • L’hébergement d’une Factory DevOps (CICD/Testing/Monitoring) • L’hébergement d’une plateforme Data Analytics, DataViz, • L’hébergement d’une plafeforme d’Echange (Serveurs de fichiers, ETL, Bases de données) Principaux périmètres pour cette mission : Mise en place d'un portail de Self Service Infrastructure avec API AWS (gestion du frontend et backend) Participation à la mise en place d’une Landing Zone AWS en remplacement de deux comptes historiques Migration/Création de l’infrastructure de micro-services java, nodejs, php vers Landing zone Réalisations de nouvelles infrastructures pour les demandes des équipes applicatives Intégration des applications sur ECS, dockerisation, déploiement Intégration des applications dans l’écosystème DevOps (CI/CD, Monitoring, Testing) Création de pipelines CI/CD sur Jenkins et Gitlab CI Infrastructure as code avec Terraform Provisioning de l’Infrastructure avec Ansible Support aux équipes applicatives et troubleshooting sur les anomalies Gestion du RUN et des incidents de production Environnement technique: • Cloud : AWS (EC2, ECS, RDS, S3, EKS, ELK, …) / Azure / GCP • Langage applicatif : JBOSS, Widlfly, Spring, NodeJS, PHP, • IAC : Docker, Terraform, Ansible, • FACTORY : Jenkins, Okta, Grafana, Splunk, Gitlab, Kubernetes, Jira, Confluence, API Management • DATA : TIDB, Databricks, Informatica, MS-BI, Oracle GoldenGate, Hadoop, Spark, EMR, SAS, • DataBase : MySQL, SQL Server, MariaDB, MongoDB, ORACLE

Freelance

Mission freelance
Network Security Architect

Neotrust
Publiée le
Ansible
Architecture
Automatisation

12 mois
700-780 €
Provence-Alpes-Côte d'Azur, France

Notre client, un grand groupe international, recherche un Cybersecurity Architect très qualifié et expérimenté, avec un fort accent sur la sécurité des réseaux, pour rejoindre l’équipe Cloud & Architecture Cybersecurity en pleine croissance. Le candidat idéal sera responsable de la conception, de la mise en œuvre et du maintien d'architectures de sécurité robustes qui protègent l'infrastructure réseau et les données sensibles de notre organisation. Ce rôle exige une compréhension approfondie des principes, des architectures et des technologies de sécurité des réseaux afin de garantir la sécurité des systèmes contre les menaces actuelles et émergentes. LE RÔLE - OBJECTIF DU POSTE Le Network Security Architect est responsable de la sécurité de la connectivité entre tous les sites du client, qu'ils soient dans le Cloud ou sur site. PRINCIPALES RESPONSABILITES Conception et mise en œuvre : - Développer et mettre en œuvre des architectures de sécurité réseau complètes alignées sur les objectifs et les politiques de sécurité de l'organisation. - Concevoir des solutions de réseau sécurisées, y compris des pare-feu, des VPN, des systèmes de détection/prévention des intrusions (IDS/IPS) et des systèmes de contrôle d'accès au réseau (NAC). - Elaborer des stratégies de segmentation du réseau afin de limiter l'accès et de réduire la surface d'attaque. Évaluation et gestion des risques : - Procéder à des évaluations approfondies des risques et à des analyses de vulnérabilité afin d'identifier les risques de sécurité potentiels dans les infrastructures de réseau. - Élaborer et mettre en œuvre des stratégies d'atténuation pour remédier aux vulnérabilités et aux risques identifiés. - Collaborer avec les équipes informatiques et opérationnelles pour intégrer des contrôles de sécurité dans les conceptions de réseaux existants et nouveaux. Politiques de sécurité et conformité : - Élaborer, mettre en œuvre et maintenir des politiques, procédures et normes de sécurité du réseau en conformité avec les meilleures pratiques de l'industrie et les exigences réglementaires (par exemple, PCI-DSS, HIPAA, GDPR). - Collaborer avec les équipes d'audit interne et de conformité afin de remédier à tout problème lié à la sécurité du réseau. Surveillance et réponse aux incidents : - Concevoir et mettre en œuvre des solutions de surveillance de la sécurité afin de détecter les incidents de sécurité du réseau et d'y répondre. - Collaborer avec l'équipe chargée des opérations de sécurité afin d'établir et de maintenir un plan de réponse aux incidents de sécurité du réseau. Évaluation et innovation technologiques : - Évaluer et recommander de nouvelles technologies et solutions de sécurité afin d'améliorer la posture de sécurité du réseau. - Diriger les initiatives de PoC pour les nouveaux outils et solutions de sécurité. Formation et sensibilisation : - Fournir des conseils et une formation aux équipes IT et aux autres employés sur les meilleures pratiques et politiques en matière de sécurité du réseau.

Freelance

Mission freelance
Développeur O365 / Dynamics / Power Platform

Hays Medias
Publiée le
Microsoft Dynamics
Microsoft Office
Power Apps

24 mois
100-530 €
Montpellier, Occitanie

Nous recherchons pour notre client un Développeur O365 (Dynamics CRM | Power Platform) (H/F) : Prestation pure en Freelance ou en Portage salarial (CDI.c) ; (Longue) Durée : 24 mois ; Démarrage : Souplesse ; Localisation : Montpellier (34) ; Télétravail : 3 jours par semaine. Contexte : Renfort d’une équipe (5 personnes). Mission : Vous intervenez sur l’écosystème O365 et plus particulièrement sur le Dynamics CRM / la Power Platform (PP). Vous concevez et implémentez des solutions sur la PP : Conception / Développement de flux Power Automate et D'applications Power Apps. Vous accompagnez l'ouverture des services Power Automate / Power Apps : configuration d'environnements, gestion politique DLP + Habilitations, Stockage Dataverse... Vous accompagnez l'ouverture d'environnement Dynamics : Configuration / Force de proposition en termes d'urbanisation et d'architecture. Vous participez à la gouvernance : cadre et règles d'usage sur la PP. Vous assurez la communication générale avec Microsoft. Vous mettez en place toutes les automatisations nécessaires à base de scripts Powershell (gestion et l'administration des services). Vous mettez en œuvre les éléments de sécurité demandés par le RSSI Vous produisez toute la documentation à destination des équipes N2 tout en assurant le passage de connaissance. Vous traitez les incidents de niveau 3 également. Vous animez en tant qu'expert des groupes de travail technique autour de la Power Platform. Environnement technique : Dynamics CRM, Power Plateform (Power Apps et Power Automate), O365, Scripting Powershell.

Freelance

Mission freelance
Data Engineer GCP H/F

LeHibou
Publiée le
Google Cloud Platform

6 mois
500-600 €
Charenton-le-Pont, Île-de-France

Notre client dans le secteur Banque et finance recherche un/une Data Engineer GCP H/F Description de la mission: Contexte / Objectifs : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Description : • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View Compétences / Qualités indispensables : Plateforme et environnement GCP (indispensable), • Environnement GKE, • Stockage : HDFS / GCS, • Traitement: Maitrise de l’écosystème Spark / Kafka / Scala, • Planification : Airflow / Composer, • DWH : SQL, BigQuery, BigTable, • Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build Informations concernant le télétravail : 2 jours

Freelance

Mission freelance
Data steward

CAT-AMANIA
Publiée le
Google Cloud Platform
Gouvernance

6 mois
100-500 €
Lille, Hauts-de-France

Le service observabilité est une entité transverse de la direction du système d’information et du Digital, au service des Directions Métiers et de la DSID. Sa mission est de définir et de mettre en œuvre les solutions de supervision techniques, applicatives et fonctionnelles. Dans le cadre d'un nouveau programme, nous devons renforcer la capacité du produit observabilité à déployer de nouvelles solutions. MAITRISER ET DOCUMENTER LA DONNEE METIER • Apporte un conseil personnalisé répondant aux problématiques des acteurs de la donnée • Qualifie et enrichie la donnée en s’assurant que l’utilisateur dispose du plus grand nombre d’informations (catalogue de données, validation de la définition de la donnée) • Accompagne la cartographie de la donnée • Optimise la prise en main et l’utilisation et de la donnée en facilitant sa compréhension • Accompagne les acteurs de la donnée dans le maintien de la connaissance de la donnée (dictionnaire, référentiels de contrôle) GARANTIR LA METHODOLOGIE ET LE MAINTIEN DE LA QUALITE DES DONNEES • Accompagne les acteurs de la donnée dans le respect des règlementations en vigueur (RGPD, …) et des règles d’éthique définies au sein du Groupe. • Apporte un conseil pour fiabiliser la provenance de la donnée afin d’en maitriser son usage (cycle de vie) • Accompagne les acteurs de la donnée dans la maitrise de la qualité de leurs données : diagnostic, suivi de leur procédure de qualité • Déployer et pérenniser les procédures de détection et de correction des problèmes de qualité des données

Freelance

Mission freelance
Administrateur Citrix

ESENCA
Publiée le
Citrix
Google Cloud Platform

3 mois
400-430 €
Lille, Hauts-de-France

Responsabilités: ---------- Analyse les besoins des clients et conçoit des solutions Citrix efficaces Implémente et maintient les solutions Citrix pour les clients Fournit des services de support technique pour les solutions Citrix existantes Développe des programmes de formation pour les clients et les employés Surveille les tendances et les développements technologiques dans le domaine de Citrix Évalue régulièrement et améliore les processus de prestation de services Citrix Exigences: ---------- Expérience antérieure dans la gestion d'environnements Citrix Cloud, Netscaler et Citrix Workspace Expérience dans l'optimisation des environnements pour un accès distant efficace Bonne connaissance des protocoles de connexion Solides compétences en résolution de problèmes pour traiter les problèmes liés à Citrix, Netscaler et Google Cloud Plateforme Compétences en gestion de projet pour coordonner les déploiements de la solution Citrix et la maintenance des systèmes Connaissance approfondie des systèmes d'exploitation Windows pour être en mesure de travailler efficacement sur des environnements Citrix Bonne capacité à documenter les solutions et à former les utilisateurs finaux Esprit d'équipe et capacité à travailler efficacement avec les autres membres de l'équipe informatique

Freelance

Mission freelance
data analyst Power BI H/F

Cheops Technology
Publiée le
Microsoft Power BI

6 mois
100-570 €
Vélizy-Villacoublay, Île-de-France

• Développer les reports Procurement BI dont la maquette a été définie par les utilisateurs et l’UX Designer • Piloter et animer les recettes utilisateurs • Mettre en production les reports validés dans le respect du planning établi • Mapper les données issues des nouvelles sources (ERP, nouvelle application, etc …), charger les historiques, mettre en place les flux pour l’alimentation quotidienne automatique du BI, valider les chiffres. • Contribuer avec le reste de l’équipe BI au support utilisateurs (questions reçues par mail principalement) • Participer aux cérémonies Agiles : daily scrums, retrospectives, backlog refinement, etc … • S’assurer de la bonne compréhension de la solution par les utilisateurs, soit en mettant en place des tool tips directement dans le BI soit en livrant une documentation utilisateurs. • Optimiser les traitements pour améliorer les temps de réponse et réduire les couts • Participer aux démarches d’amélioration continue avec l’équipe Activités spécifiques prévues d’octobre à décembre 2024 : • Connexion d’un nouvel ERP SAP by Design basé en Inde • Mise en place d’un dashboard permettant de suivre l’activité des tactical buyers (transformation des DA en commandes, suivi des livraisons et de la facturation) • Mise en place d’un dashboard de mesure du Spend par fournisseur • Mis en place d’un dashboard de mesure de la performance des Achats vis-à-vis du cash (délais de paiement négociés, acomptes, reverse factoring, ponctualité de paiement)

Freelance

Mission freelance
Data Steward

ICSIS
Publiée le
API
Google Cloud Platform
Microsoft Power BI

3 ans
400-550 €
Lille, Hauts-de-France

La mission consiste à : - Maitriser et documenter la donnée métier - Garantir la méthodologie et le maintien de la qualité des données - Mission sur la métropole lilloise avec télétravail hybride (2 ou 3 jours / semaine) Compétences recherchées : - Une expérience au sien d’une équipe de gouvernance des données et/ou une expérience autour de la mise en qualité des données - Connaissance des principes de la gouvernance de la donnée - Connaissance en analyse et gestion de la donnée - Maitrise du fonctionnement en équipe agile - Capacité d'analyse et de synthèse - Cloud (GCP)

CDI

Offre d'emploi
Databricks Architect

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

52k-85k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance

Mission freelance
Data Engineer F/H

CELAD
Publiée le
Apache Spark
Google Cloud Platform
Scala

12 mois
480 €
Paris, France

Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients du secteur bancaire. Contexte / Objectifs : Récupérer les données issues de sources externes Utiliser la puissance du Datalake Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : d’ingestion de données, de validation de données, de croisement de données, de déversement dans le datalake des données enrichies Développer dans le respect des règles d’architecture définies Développer et documenter les user stories avec l’assistance du Product Owner. Produire les scripts de déploiement Prioriser les corrections des anomalies Assister les équipes d’exploitation Participer à la mise en œuvre de la chaîne de delivery continue Automatiser les tests fonctionnels

236 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous