Trouvez votre prochaine offre d’emploi ou de mission freelance Google Drive

Votre recherche renvoie 101 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Ingénieur DEVOPS Cloud GCP

Management Square
Publiée le
Google Cloud Platform
Linux
Puppet

10k-40k €
Sophia Antipolis 1, Provence-Alpes-Côte d'Azur

Nous recherchons un ingénieur DEVOPS Cloud GCP passionné par les technologies Cloud et prêt à relever de nouveaux défis pour rejoindre notre équipe dynamique et innovante. Responsabilités : Concevoir, mettre en œuvre et gérer des solutions Cloud sur la plateforme Google Cloud Platform (GCP) Travailler en étroite collaboration avec les équipes de développement pour automatiser les processus de déploiement et de gestion de l'infrastructure Garantir la sécurité et la disponibilité des applications Fournir des conseils et des recommandations pour optimiser les coûts et améliorer les performances de l'infrastructure Cloud

Freelance
CDI

Offre d'emploi
Ingénieur sécurité CLOUD

NETSEC DESIGN
Publiée le
Azure
Google Cloud Platform

3 ans
10k-200k €
Guyancourt, Île-de-France

On recherche pour notre client final grand compte un Ingénieur sécurité cloud pour le maintien en condition des équipements de sécurité - Mise en place des infrastructures réseau et sécurité au sein des Clouds GCP, AZURE - Mise en place des solutions d'interconnexion - Support niveau 3 sur tout incident opérationnel sur les équipements sécurité dans l'environnement cloud et datacenters associés - Identifier et mettre en place les correctifs et évolution des ingénierie si nécessaire - Rédaction de procédure et de document technique à suivre par les équipes assurant les niveaux 1 et 2 - Accompagnement des projets pour la mise en place de l'environnement réseau associé (flux, routage, ...) - Participation aux projets de modernisation des différentes services réseaux ( Firewalls, dns, router, ...) - Suivi des actions de remédiation pour corriger les vulnérabilités sécurité et Mise en conformité les équipements et réseaux et sécurité concernés

Freelance

Mission freelance
Data Analyst GCP Python appétence Date ingénierie

Kaïbee
Publiée le
Google Cloud Platform
Microsoft Power BI
Python

1 an
100-460 €
Paris, France

PAS DE SOUS-TRAITANCE // MERCI Nous recherchons un Data Analyst passionné par la Data Ingénierie pour rejoindre une équipe dynamique dans un environnement stimulant. En tant que Data Analyst , vous jouerez un rôle clé dans l’analyse et la gestion des données au sein d’une organisation innovante. Vous interviendrez également sur des aspects techniques de la data ingénierie pour optimiser et structurer les pipelines de données. Compétences requises : • Excellente maîtrise de GCP pour la gestion des pipelines et des infrastructures cloud. • Expertise en SQL pour extraire, manipuler et analyser des données complexes. • Connaissance avancée de Python pour automatiser les processus et gérer les workflows. • Expérience avec dbt pour transformer les données. • Utilisation de Argo pour l’orchestration des workflows. • Maîtrise de Terraform pour le déploiement d’infrastructures cloud. • Capacité à créer des rapports visuels et dynamiques avec Power BI .

Freelance

Mission freelance
Expert Securité GCP IAM

OctopusGroup
Publiée le
Google Cloud Platform
IAM
Terraform

3 ans
100-740 €
La Défense, Île-de-France

Contexte de la mission : La prestation se déroulera au sein du CCOE, dont l'objectif principal est d'accompagner les métiers dans l'intégration GCP. La prestation consiste à : - Conception et Spécifications Techniques : Définir les spécifications techniques détaillées pour l'infrastructure cloud sur GCP, en tenant compte des exigences de sécurité. - Déploiement et Exploitation : Mettre en place l'infrastructure cloud GCP en suivant les bonnes pratiques de sécurité et en assurant le déploiement automatisé à l'aide d'outils CI/CD et l'Infrastructure as Code (IaC) - Intégration de la Sécurité dans le design de la solution : Collaborer avec les équipes de développement pour intégrer la sécurité dès les premières phases du processus de développement (DevSecOps), en automatisant les tests de sécurité, les analyses de vulnérabilités et les contrôles de conformité dans les pipelines CI/CD. - Surveillance et Détection des Menaces : Mettre en place des outils de surveillance et de détection des menaces sur l'infrastructure cloud GCP, en surveillant en temps réel les activités suspectes et en répondant rapidement aux incidents de sécurité potentiels. - Gestion des Incidents de Sécurité : Mettre en place des procédures de gestion des incidents de sécurité pour répondre efficacement aux menaces ou aux incidents de sécurité, en collaborant avec l'équipe SOC (Security Operations Center) et en assurant un suivi régulier. - Gestion des Identités et des Accès (IAM) : Définir et maintenir des politiques de gestion des identités et des accès (IAM) sur GCP, en s'assurant que seules les personnes autorisées ont accès aux ressources et données sensibles, et en garantissant la mise en place de principes de moindre privilège. - Gestion des Vulnérabilités : Mettre en œuvre et maintenir un processus de gestion des vulnérabilités pour identifier, évaluer et traiter les vulnérabilités de sécurité sur l'infrastructure cloud GCP, en collaborant avec les équipes de développement pour appliquer les correctifs et les mises à jour de sécurité nécessaires - Analyse des Logs et des Alertes : Effectuer une analyse approfondie des logs et des alertes de sécurité générés par les outils de surveillance et de détection des menaces, en identifiant les comportements suspects, les anomalies de sécurité et en prenant des mesures proactives pour les atténuer. - Reporting et Suivi : Élaborer des rapports réguliers sur l'état de la sécurité et de la performance de l'infrastructure cloud GCP, en fournissant des indicateurs clés de performance (KPI) et des recommandations pour améliorer continuellement la sécurité et l'efficacité opérationnelle. - Conformité et Audits de Sécurité : Assurer la conformité aux normes de sécurité définies par l'entreprise et aux réglementations applicables en effectuant des audits réguliers de sécurité sur l'infrastructure cloud GCP, en identifiant les écarts de conformité et en mettant en œuvre les actions correctives nécessaires.

Freelance

Mission freelance
Data analyst (H/F)

Anywr freelance
Publiée le
Google Cloud Platform
Microsoft Power BI

12 mois
100-450 €
Lille, Hauts-de-France

Le scope métier couvre l'ensemble des activités du retail (Marketing / Finance / Produit etc). Missions : - Conçoit , déploie et assure le RUN des data pipelines, datasets et KPI - Crée à partir des données présentes dans la plate-forme Data la modélisation et les traitements nécessaires à l’exploitation des données, à destination des usages analytiques. - Assure la maintenance de ce qui a été produit. - Réalise des recettes techniques et fonctionnelles. - Veille au respect des normes et des pratiques de référence de la Data. - Accompagne les consommateurs ou utilisateurs de solutions data dans leur choix d’indicateurs et leur expression de besoin d’accès aux données - Garantit l’alignement et la cohérence des solutions data - Travaille en étroite collaboration aussi bien avec les équipes techniques que métier.

Freelance

Mission freelance
Senior SRE GCP

Agrega
Publiée le
Azure
DevOps
Google Cloud Platform

6 mois
560-600 €
Massy, Île-de-France

Définition de la prestation Compétences indispensables Expert en infrastructure Azure/GCP Très bonne maîtrise sur la manipulation des certificats des reverse proxy (LB7 GCP, NGINX, HA proxy) Maîtrise des composants en Private access Excellente maîtrise de la gestion des droits Azure/GCP: l'objectif étant de respecter le principe de "moindre privilège". Excellente maîtrise autour des VPC Peering et les quotas associés. Tout est fait "as code" au travers de notre plateforme CI/CD (Terraform, Ansible, Jenkins..). Autres informations Déjà 47% du parc applicatif Carrefour est hébergé sur nos infrastructures, objectif 100% en 2026. Fonctionnellement, nos clients (différentes BU de Carrefour) doivent pouvoir être autonomes et faire un maximum de "self service" sur les changements d’infrastructure, souvent orientés sur la configuration des équipements de sécurité et les expositions de services. Nous sommes client centric : nous prenons en charge la complexité pour que l’usage soit facilité pour nos clients ! Nous agissons en tant que Cloud Service Provider interne. Nous fournissons les socles Cloud pour l’ensemble des projets Carrefour. Nous construisons et faisons le run des infrastructures partagées pour différents types de workloads de production. Nous améliorons notre service en continu, via une automatisation toujours plus poussée (self healing, immutable) Nous utilisons les best practices SRE. Compétences requises Domaines techniques Administration Réseau - EXPERT Administration Système - EXPERT Sécurité - EXPERT Technologie Web - EXPERT Technologies ANSIBLE - EXPERT CLOUD AZURE - EXPERT CLOUD GCP - EXPERT JENKINS - EXPERT PYTHON - EXPERT Environnements linguistique Français - EXPERT Autres compétences Jenkins Terraform Python Private PaaS Azure/GCP Network Azure/GCP ReverseProxy PaloAlto

Freelance

Mission freelance
Data engineer - GCP BigQuery Spark Scala

NEXORIS
Publiée le
Google Cloud Platform

12 mois
550-600 €
Paris, France

Notre client bancaire recherche un consultant Data engineer - GCP BigQuery Spark Scala (H/F) pour renforcer l'équipe au sein de laquelle preste déjà un consultant de NEXORIS. Récupérer, traiter et mettre à disposition des agrégats de données via un datalake en utilisant des technologies et pratiques modernes de gestion de données. Tâches et activités de la mission : - Récupérer les données issues de sources externes - Utiliser la puissance du datalake pour le traitement des données - Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels - Mettre en œuvre la chaîne d'ingestion, validation, croisement et déversement des données dans le datalake - Développer en respectant les règles d’architecture définies - Développer et documenter les user stories avec l’assistance du Product Owner - Produire les scripts de déploiement - Prioriser les corrections des anomalies - Assister les équipes d’exploitation - Participer à la mise en œuvre de la chaîne de delivery continue - Automatiser les tests fonctionnels

Freelance
CDI

Offre d'emploi
skiils se renforce et recherche son/sa DevOps pour renforcer ses équipes au Maghreb (remote)

skiils
Publiée le
Azure
Google Cloud Platform

1 an
10k-200k €
Île-de-France, France

En tant qu'ingénieur DevOps, et dans un contexte AGILE et d’intégration et de delivery continu (CI/CD), vous rejoindrez un de nos clients sur un environnement multi Cloud Azure/GCP. Vous serez en relation directe avec les équipes projets, les équipes en charge de fournir les services socles, les exploitants et les architectes Cloud. Votre Rôle Sera De Contribuer à la conception bas niveau des solutions, Déployer les environnements techniques et les intégrer dans l’écosystème cible, Vérifier la compatibilité entre les différents composants logiciels, matériels ou systèmes , Intégrer et tester la solution dans les différents environnements techniques (Intégration, Préproduction…), Contribuer à la rédaction des manuels d’installation et d’exploitation de la solution, Apporter le support aux OPS en charge du déploiement des solutions, Contribuer aux supports et aux évolutions sur la chaîne outillée CI/CD.

Freelance

Mission freelance
Data Analyste GCP / SQL / Big Query / Expertise métier en grande distribution

HIGHTEAM
Publiée le
BigQuery
Data visualisation
Google Cloud Platform

3 ans
500-550 €
Île-de-France, France

Une offre de solutions de data analyse et de collaboration destinée à nos partenaires industriels ainsi qu’aux directions internes , à l’échelle internationale ainsi qu’à l’échelle nationale dans chaque pays, L’ambition de cette plateforme est de permettre une collaboration forte et transparente sur toute la chaîne de valeur. Description du poste Ce poste est rattaché à la Directrice Data Links. Au sein d'une équipe composée de data analystes intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer et analyser les données du Data Lake du groupe ; Participer au cadrage des nouvelles fonctionnalités ; Organiser des master-class pour partager ses connaissances métiers à son équipe Designer les nouveaux Dashboard de nos produits insights (chemins d’analyse, KPIs, représentation graphique, etc) ; Ecrire les spécifications des nouvelles fonctionnalités ; Réaliser les tests post développement, puis automatiser les recettes ; Être force de proposition pour améliorer les solutions développées et identifier des opportunités de nouvelles analyses, pour répondre aux besoins de nos utilisateurs Notre stack data : GCP, BigQuery, Looker Studio

Freelance

Mission freelance
Data Steward

ICSIS
Publiée le
API
Google Cloud Platform
Microsoft Power BI

3 ans
400-550 €
Lille, Hauts-de-France

La mission consiste à : - Maitriser et documenter la donnée métier - Garantir la méthodologie et le maintien de la qualité des données - Mission sur la métropole lilloise avec télétravail hybride (2 ou 3 jours / semaine) Compétences recherchées : - Une expérience au sien d’une équipe de gouvernance des données et/ou une expérience autour de la mise en qualité des données - Connaissance des principes de la gouvernance de la donnée - Connaissance en analyse et gestion de la donnée - Maitrise du fonctionnement en équipe agile - Capacité d'analyse et de synthèse - Cloud (GCP)

Freelance

Mission freelance
Data engineer (H/F)

Anywr freelance
Publiée le
BigQuery
Google Cloud Platform

12 mois
100-440 €
Lille, Hauts-de-France

Le profil interviendra au sein de la direction informatique , dans le service Data Analytics. Il intégrera une Squad Data : Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Profil avec un minimum de 5 ans d'expériences.

Freelance

Mission freelance
Network Security Architect

Neotrust
Publiée le
Ansible
Architecture
Automatisation

12 mois
700-780 €
Provence-Alpes-Côte d'Azur, France

Notre client, un grand groupe international, recherche un Cybersecurity Architect très qualifié et expérimenté, avec un fort accent sur la sécurité des réseaux, pour rejoindre l’équipe Cloud & Architecture Cybersecurity en pleine croissance. Le candidat idéal sera responsable de la conception, de la mise en œuvre et du maintien d'architectures de sécurité robustes qui protègent l'infrastructure réseau et les données sensibles de notre organisation. Ce rôle exige une compréhension approfondie des principes, des architectures et des technologies de sécurité des réseaux afin de garantir la sécurité des systèmes contre les menaces actuelles et émergentes. LE RÔLE - OBJECTIF DU POSTE Le Network Security Architect est responsable de la sécurité de la connectivité entre tous les sites du client, qu'ils soient dans le Cloud ou sur site. PRINCIPALES RESPONSABILITES Conception et mise en œuvre : - Développer et mettre en œuvre des architectures de sécurité réseau complètes alignées sur les objectifs et les politiques de sécurité de l'organisation. - Concevoir des solutions de réseau sécurisées, y compris des pare-feu, des VPN, des systèmes de détection/prévention des intrusions (IDS/IPS) et des systèmes de contrôle d'accès au réseau (NAC). - Elaborer des stratégies de segmentation du réseau afin de limiter l'accès et de réduire la surface d'attaque. Évaluation et gestion des risques : - Procéder à des évaluations approfondies des risques et à des analyses de vulnérabilité afin d'identifier les risques de sécurité potentiels dans les infrastructures de réseau. - Élaborer et mettre en œuvre des stratégies d'atténuation pour remédier aux vulnérabilités et aux risques identifiés. - Collaborer avec les équipes informatiques et opérationnelles pour intégrer des contrôles de sécurité dans les conceptions de réseaux existants et nouveaux. Politiques de sécurité et conformité : - Élaborer, mettre en œuvre et maintenir des politiques, procédures et normes de sécurité du réseau en conformité avec les meilleures pratiques de l'industrie et les exigences réglementaires (par exemple, PCI-DSS, HIPAA, GDPR). - Collaborer avec les équipes d'audit interne et de conformité afin de remédier à tout problème lié à la sécurité du réseau. Surveillance et réponse aux incidents : - Concevoir et mettre en œuvre des solutions de surveillance de la sécurité afin de détecter les incidents de sécurité du réseau et d'y répondre. - Collaborer avec l'équipe chargée des opérations de sécurité afin d'établir et de maintenir un plan de réponse aux incidents de sécurité du réseau. Évaluation et innovation technologiques : - Évaluer et recommander de nouvelles technologies et solutions de sécurité afin d'améliorer la posture de sécurité du réseau. - Diriger les initiatives de PoC pour les nouveaux outils et solutions de sécurité. Formation et sensibilisation : - Fournir des conseils et une formation aux équipes IT et aux autres employés sur les meilleures pratiques et politiques en matière de sécurité du réseau.

Freelance

Mission freelance
Data Engineer GCP H/F

LeHibou
Publiée le
Google Cloud Platform

6 mois
500-600 €
Charenton-le-Pont, Île-de-France

Notre client dans le secteur Banque et finance recherche un/une Data Engineer GCP H/F Description de la mission: Contexte / Objectifs : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Description : • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View Compétences / Qualités indispensables : Plateforme et environnement GCP (indispensable), • Environnement GKE, • Stockage : HDFS / GCS, • Traitement: Maitrise de l’écosystème Spark / Kafka / Scala, • Planification : Airflow / Composer, • DWH : SQL, BigQuery, BigTable, • Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build Informations concernant le télétravail : 2 jours

Freelance

Mission freelance
Data steward

CAT-AMANIA
Publiée le
Google Cloud Platform
Gouvernance

6 mois
100-500 €
Lille, Hauts-de-France

Le service observabilité est une entité transverse de la direction du système d’information et du Digital, au service des Directions Métiers et de la DSID. Sa mission est de définir et de mettre en œuvre les solutions de supervision techniques, applicatives et fonctionnelles. Dans le cadre d'un nouveau programme, nous devons renforcer la capacité du produit observabilité à déployer de nouvelles solutions. MAITRISER ET DOCUMENTER LA DONNEE METIER • Apporte un conseil personnalisé répondant aux problématiques des acteurs de la donnée • Qualifie et enrichie la donnée en s’assurant que l’utilisateur dispose du plus grand nombre d’informations (catalogue de données, validation de la définition de la donnée) • Accompagne la cartographie de la donnée • Optimise la prise en main et l’utilisation et de la donnée en facilitant sa compréhension • Accompagne les acteurs de la donnée dans le maintien de la connaissance de la donnée (dictionnaire, référentiels de contrôle) GARANTIR LA METHODOLOGIE ET LE MAINTIEN DE LA QUALITE DES DONNEES • Accompagne les acteurs de la donnée dans le respect des règlementations en vigueur (RGPD, …) et des règles d’éthique définies au sein du Groupe. • Apporte un conseil pour fiabiliser la provenance de la donnée afin d’en maitriser son usage (cycle de vie) • Accompagne les acteurs de la donnée dans la maitrise de la qualité de leurs données : diagnostic, suivi de leur procédure de qualité • Déployer et pérenniser les procédures de détection et de correction des problèmes de qualité des données

CDI
Freelance

Offre d'emploi
Ingénieur Infra Cloud (AZURE/ GCP)

OCSI
Publiée le
Azure
Google Cloud Platform

12 mois
10k-61k €
Île-de-France, France

Rôle principal : Concevoir, déployer et maintenir les infrastructures cloud robustes et évolutives. Collaborer étroitement avec les équipes de développement logiciel, les équipes techniques et les architectes pour garantir des solutions performantes et sécurisées. Déploiement d’architectures cloud : En collaboration avec les architectes, l’ingénieur participera à l’élaboration des architectures cloud robustes en utilisant des services tels qu’Azure ou GCP. Le déploiement se fera via des outils comme Terraform et Ansible, qui permettent de décrire l’infrastructure en code et de la déployer de manière reproductible. Gestion des ressources cloud : L’ingénieur sera responsable de la création, de la configuration et de la gestion des ressources cloud. Il/elle devra surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Intégration dans les pipelines CI/CD : Travaillant en étroite collaboration avec les équipes de développement, l’ingénieur devra intégrer les meilleures pratiques d’infrastructure dans les pipelines CI/CD. Cela peut inclure l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, etc. Principales tâches : Résolution des problèmes d’infrastructure : Diagnostiquer et résoudre les problèmes liés à l’infrastructure cloud. Gestion des ressources cloud : Création, configuration et gestion des ressources cloud. Surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Intégration dans les pipelines CI/CD : Intégrer les meilleures pratiques d’infrastructure dans les pipelines CI/CD. Cela peut inclure l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, etc. Résolution des problèmes d’infrastructure : Diagnostiquer et résoudre les problèmes liés à l’infrastructure cloud. Cela peut inclure des problèmes de performance, de sécurité, de disponibilité, etc. Collaboration avec les équipes : Travailler en étroite collaboration avec les développeurs, les ingénieurs de production, les architectes et les autres membres de l’équipe afin de garantir que l’infrastructure répond aux besoins des applications. Participer à des réunions d’équipe, partager les connaissances et contribuer à l’amélioration continue des processus

Freelance

Mission freelance
Data Engineer GCP Finance

HIGHTEAM
Publiée le
Apache Spark
BigQuery
Google Cloud Platform

3 ans
400-550 €
Île-de-France, France

Dans ce cadre, nous recherchons un développeur Full Stack, ayant une solide expérience dans le Cloud GCP Récupérer les données issues de sources externes • Utiliser la puissance du Data Lake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le data Lake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des Spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data Lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

101 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous