Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 624 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
CDD
Freelance

Offre d'emploi
Ingénieur Cloud AWS Spécialisé en Gestion, Automatisation, et Optimisation

EAYS-CONSULTING
Publiée le
AWS Cloud
CI/CD
DevOps

2 ans
45k-55k €
Île-de-France, France

Contexte : Au sein de notre entreprise, nous recherchons un Ingénieur Cloud AWS spécialisé dans la gestion, l'automatisation, et l'optimisation des infrastructures cloud. Vous serez responsable de la surveillance, du dépannage, et de l'amélioration des performances de nos systèmes cloud sur AWS. Votre rôle sera crucial pour garantir que nos environnements cloud sont performants, sécurisés, et optimisés pour les coûts. Missions et Activités : Analyse des Besoins d’Infrastructures AWS : Évaluer et analyser les besoins en infrastructures cloud pour assurer un dimensionnement optimal. Configuration et Dimensionnement : Configurer et dimensionner les environnements AWS dans le respect des bonnes pratiques, en tenant compte de la performance, de la haute disponibilité, de la tolérance aux pannes, de la sécurité, et des coûts (FinOps). Gestion de l'Exploitation des Plateformes : Gérer l'exploitation des plateformes du SI, en veillant à leur performance, leur sécurité, et leur coût, incluant les réseaux, les serveurs, les systèmes d’exploitation, et les services cloud. Maintien en Condition Opérationnelle : Assurer le maintien en condition opérationnelle de toutes les plateformes sous la responsabilité de l’équipe. Support et Gestion des Incidents : Prendre en charge les incidents nécessitant une expertise AWS et système, incluant Linux et Windows. Point Focal pour les Équipes d'Activités : Agir en tant que point focal pour les équipes internes, en prenant en compte leurs demandes et en les mettant en œuvre en fonction des besoins de l'activité. Gestion des Accès AWS : Gérer les accès à la console AWS, en utilisant AWS IAM avec fédération Active Directory. Améliorations Continues : Identifier et planifier les améliorations continues, en menant une veille technologique orientée open source et cloud. Infrastructure as Code : Développer l’infrastructure as code en utilisant Terraform. CI/CD et GitOps : Développer et maintenir les pipelines CI/CD avec GitLab et Jenkins, en suivant les bonnes pratiques GitOps. Automatisation des Configurations : Automatiser les configurations système avec Ansible. Accompagnement des Développeurs : Accompagner les développeurs lors des phases de développement des scripts de déploiement applicatifs. Conseil Cloud : Participer aux phases de conception en tant que conseiller cloud, apportant une expertise lors des phases de design et d'intégration. Propositions d'Amélioration : Être force de proposition pour améliorer le socle et l’écosystème AWS.

Freelance

Mission freelance
Senior SRE GCP

Agrega
Publiée le
Azure
DevOps
Google Cloud Platform

6 mois
560-600 €
Massy, Île-de-France

Définition de la prestation Compétences indispensables Expert en infrastructure Azure/GCP Très bonne maîtrise sur la manipulation des certificats des reverse proxy (LB7 GCP, NGINX, HA proxy) Maîtrise des composants en Private access Excellente maîtrise de la gestion des droits Azure/GCP: l'objectif étant de respecter le principe de "moindre privilège". Excellente maîtrise autour des VPC Peering et les quotas associés. Tout est fait "as code" au travers de notre plateforme CI/CD (Terraform, Ansible, Jenkins..). Autres informations Déjà 47% du parc applicatif Carrefour est hébergé sur nos infrastructures, objectif 100% en 2026. Fonctionnellement, nos clients (différentes BU de Carrefour) doivent pouvoir être autonomes et faire un maximum de "self service" sur les changements d’infrastructure, souvent orientés sur la configuration des équipements de sécurité et les expositions de services. Nous sommes client centric : nous prenons en charge la complexité pour que l’usage soit facilité pour nos clients ! Nous agissons en tant que Cloud Service Provider interne. Nous fournissons les socles Cloud pour l’ensemble des projets Carrefour. Nous construisons et faisons le run des infrastructures partagées pour différents types de workloads de production. Nous améliorons notre service en continu, via une automatisation toujours plus poussée (self healing, immutable) Nous utilisons les best practices SRE. Compétences requises Domaines techniques Administration Réseau - EXPERT Administration Système - EXPERT Sécurité - EXPERT Technologie Web - EXPERT Technologies ANSIBLE - EXPERT CLOUD AZURE - EXPERT CLOUD GCP - EXPERT JENKINS - EXPERT PYTHON - EXPERT Environnements linguistique Français - EXPERT Autres compétences Jenkins Terraform Python Private PaaS Azure/GCP Network Azure/GCP ReverseProxy PaloAlto

Freelance
CDI

Offre d'emploi
skiils se renforce et recherche son/sa DevOps pour renforcer ses équipes au Maghreb (remote)

skiils
Publiée le
Azure
Google Cloud Platform

1 an
10k-200k €
Île-de-France, France

En tant qu'ingénieur DevOps, et dans un contexte AGILE et d’intégration et de delivery continu (CI/CD), vous rejoindrez un de nos clients sur un environnement multi Cloud Azure/GCP. Vous serez en relation directe avec les équipes projets, les équipes en charge de fournir les services socles, les exploitants et les architectes Cloud. Votre Rôle Sera De Contribuer à la conception bas niveau des solutions, Déployer les environnements techniques et les intégrer dans l’écosystème cible, Vérifier la compatibilité entre les différents composants logiciels, matériels ou systèmes , Intégrer et tester la solution dans les différents environnements techniques (Intégration, Préproduction…), Contribuer à la rédaction des manuels d’installation et d’exploitation de la solution, Apporter le support aux OPS en charge du déploiement des solutions, Contribuer aux supports et aux évolutions sur la chaîne outillée CI/CD.

Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

Pickmeup
Publiée le
AWS Cloud

1 an
45k-80k €
Paris, France

NOTRE CLIENT Pionnier dans le domaine des solutions de plateforme, notre client offre une suite innovante permettant aux sociétés de transformer leur e-commerce pour accélérer leur croissance de manière durable et rentable. Depuis le début des années 2010, il accompagne les entreprises B2C et B2B en leur fournissant des technologies avancées, sécurisées et évolutives pour digitaliser leur activité, étendre leur offre via la marketplace ou le dropship, optimiser la gestion des catalogues et paiements de fournisseurs, offrir une expérience d'achat personnalisée à leurs clients, et augmenter leurs profits grâce au retail media. En tant que Data Engineer (Senior) au sein de l'équipe Data, vos principales missions consisteront à : - Contribuer à l'enrichissement de la plateforme de données (ETL). - Améliorer la robustesse des pipelines de production pour les applications de - - Machine Learning (inférence en temps réel, etc.). - Intégré(e) dans une équipe de spécialistes en données (data engineers, machine - learning engineers, data scientists, data analysts), vous jouerez un rôle clé pour garantir la position dominante de la solution sur son marché. STACK ET OUTILS Technologies : Apache Spark, Kafka, AWS, Databricks, Python, Airflow, Mlflow, TensorFlow, Delta Lake, Superset, Kubernetes, Redshift, SQL, Terraform, Ansible. LES MISSIONS - Concevoir et implémenter une architecture performante, robuste, scalable et avec des coûts maîtrisés pour les applications Spark ainsi que pour les pipelines de production de Machine Learning (évaluation des feature stores, refactoring de DAG Airflow). - Accompagner les Data Scientists lors de la mise en production (relecture de code, pair programming) et établir les meilleures pratiques. - Optimiser et améliorer la CI/CD de l'équipe en collaboration avec l'équipe SRE. - Assurer la montée en compétences des membres de l’équipe sur les sujets de MLOps et Data Engineering. - Explorer les meilleures façons d'intégrer les données Google Analytics dans la plateforme de données. - Partager vos connaissances et présenter les travaux devant toutes les équipes techniques.

Freelance
CDI

Offre d'emploi
Data & Analytics engineer H/F

AMD Blue
Publiée le
Apache Airflow
AWS Cloud
PySpark

2 ans
50k-60k €
Paris, France

Qui sommes-nous ? Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Data, notre Tribu spécialisée dans le domaine de la Data. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis et au Canada, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Blue Data. Contexte de la mission : Pour notre client la connaissance de ses utilisateurs afin de personnaliser leurs expériences constitue un facteur clé de réussite dans la réalisation de sonambition. C’est pourquoi, le rôle majeur de l’équipe est de contribuer à l’accroissement de sa connaissance utilisateur en détectant et enrichissant le profil de chacun de ses utilisateurs . L’équipe travaille également à fournir la recommandation des produits et services les plus intéressants pour les clients afin de les accompagner au mieux dans leur parcours. L’équipe est actuellement constituée de: · 2 Product Managers · 2 Data Engineers · 4 Data Scientists Détail de la mission : En tant que Data & Analytics Engineer au sein de l’équipe User Intelligence, vous serez amené à travailler sur plusieurs produits gérés par l’équipe: · La Customer Lifetime Value (CLV) · Les member affinities · La recommandation produits et services · La customer behavior segmentation · Le purchasing channel mix Vous interviendrez également auprès de l’équipe Analytics pour aider à l’implémentation de leurs modèles DBT. Vos responsabilités: · Implémenter des solutions, à partir des règles fonctionnelles établies par le Product Manager / Data Owner · Vous documentez les règles de qualités décrites dans Collibra au préalable pour valider les datasets. · Vous partez des templates génériques pour construire des pipelines scalables de données structurées · Transformez la stack legacy vers la nouvelle stack recommandée par les équipes de la Data Platform · Répondre aux questions des utilisateurs ainsi que l’équipe de datavisualisation sur les données mises à disposition · Etre capable d’intervenir sur l’ensemble des flux de l’équipe · Documenter les flux implémentés. · Contribuer à l’amélioration des bonnes pratiques de développement au sein de l’équipe (Mob programming, Test Driven Development,..). · Contribuer à notre communauté de data & analytics engineers.

Freelance
CDI

Offre d'emploi
Ingénieur DevOps AWS

Hydrochain
Publiée le
AWS Cloud
GitLab CI
Grafana

1 an
10k-75k €
Île-de-France, France

Nous recherchons un ingénieur DevOps AWS, responsable de la gestion, de l'automatisation et de l'optimisation des infrastructures cloud sur AWS. Missions principales : Résumé : Gestion des Infrastructures Cloud : Conception, déploiement et gestion des infrastructures sur AWS (EC2, S3, RDS, VPC, EKS, etc.). Automatisation : Développement de scripts d'automatisation pour le déploiement des infrastructures, la gestion des configurations et les mises à jour (Terraform). CI/CD : Mise en place et optimisation des pipelines CI/CD pour des déploiements fréquents et sûrs ( GitLab CI, AWS CodePipeline). Monitoring & Performance : Mise en place de solutions de monitoring et de logging (CloudWatch, Prometheus, Grafana), analyse des performances et optimisation des coûts. Sécurité : Implémentation des meilleures pratiques de sécurité sur AWS. Collaboration : Travailler en étroite collaboration avec les développeurs et l’équipe Sysops pour s'assurer que les applications sont correctement intégrées dans l'infrastructure et fonctionnent de manière optimale. Résolution de problèmes : Répondre rapidement aux incidents et résoudre les problèmes liés à l'infrastructure et aux applications hébergées sur AWS. Technologies : Cloud AWS Prometheus/Grafana Kubernetes - EKS Base de données : Redis, PostgreSQL, mongoDB Message Broker : RabbitMQ ETL : FME Flow (un plus) IaC : Terraform Gitlab Jira/Confluence Réseau AWS : VPC, ALB, WAF, NFW, etc. / Infra AWS : S3, EC2, etc

CDI
Freelance

Offre d'emploi
Expert/développeur Power Platform (H/F) 🚀

CITECH
Publiée le
Office 365
Power Apps
Powershell

12 mois
58k-68k €
Montpellier, Occitanie

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Expert/développeur Power Platform (H/F) 🚀 💰 Votre mission est pour un client du secteur banque et assurance qui dispose de 3000 caisses locales sur l’ensemble du territoire ainsi que de 8000 conseillers. Le projet est pour l’une de ses caisses. 📝 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Accompagner l’ouverture et configurer les environnements Power Automate, Power Apps et Dynamics. 🔸 Concevoir et développer des solutions Power Automate et Power Apps. 🔸 Contribuer à l’urbanisation, à l'architecture et à la gouvernance de la Power Platform. 🔸 Automatiser la gestion via PowerShell et implémenter des mesures de sécurité. 🔸 Produire la documentation, former les équipes N2 et gérer les incidents de niveau 3. 🔸 Interagir avec Microsoft et animer des groupes de travail technique.

CDI
Freelance

Offre d'emploi
Analyst SOC N3 - Cloud H/F

STORM GROUP
Publiée le
AWS Cloud
Azure

3 ans
10k-65k €
Paris, France

[Contexte] Le département qui correspond au SOC, est en charge des activités opérationnelles de détection, gestion des incidents et prévention sur le périmètre auprès des partenaires métiers. Au sein de l’entité qui gère les opérations de sécurité pour les infrastructures informatiques, le SOC (Security Operational Center) a pour prestation d’opérer des activités liées à la sécurité et au suivi des vulnérabilités. [La prestation consiste à contribuer à/au(x)] • La définition et la mise en place de la détection de menaces sur le cloud public et privé • L'amélioration continue de la détection du Soc sur le cloud public (Azure / AWS) et privé. • L'identification des logs nécessaires • La proposition de nouvelles alertes en fonction des risques et menaces • La production de procédures pour les nouvelles activités et l’amélioration des procédures existantes • L'amélioration continue de la détection du Soc, la sélection de nouveaux logs, l'amélioration de l’analyse des logs existants, l'études de scenarios, en rapport avec la matrice des risques sur le cloud public et privé

Freelance
CDI

Offre d'emploi
System Administrator (OPS) - certifié redhat 9

IHC Conseil
Publiée le
Ansible
AWS Cloud
Azure

6 mois
24k-48k €
Luxembourg

Nous recherchons un Consultant Opérations Unix compétent pour rejoindre notre équipe informatique. Le candidat idéal doit posséder une expérience approfondie dans l'administration des systèmes Unix/Linux et sera responsable de garantir la stabilité, la performance et la sécurité de nos systèmes basés sur Unix. Le Consultant Opérations Unix travaillera en étroite collaboration avec d'autres professionnels de l'informatique pour concevoir, mettre en œuvre et maintenir des environnements Unix robustes. La mission est en full remote mais le candidat ne doit pas habiter à plus de deux heures du lieu de la mission (Luxembourg ville)

Freelance

Mission freelance
Data Analyste GCP / SQL / Big Query / Expertise métier en grande distribution

HIGHTEAM
Publiée le
BigQuery
Data visualisation
Google Cloud Platform

3 ans
500-550 €
Île-de-France, France

Une offre de solutions de data analyse et de collaboration destinée à nos partenaires industriels ainsi qu’aux directions internes , à l’échelle internationale ainsi qu’à l’échelle nationale dans chaque pays, L’ambition de cette plateforme est de permettre une collaboration forte et transparente sur toute la chaîne de valeur. Description du poste Ce poste est rattaché à la Directrice Data Links. Au sein d'une équipe composée de data analystes intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer et analyser les données du Data Lake du groupe ; Participer au cadrage des nouvelles fonctionnalités ; Organiser des master-class pour partager ses connaissances métiers à son équipe Designer les nouveaux Dashboard de nos produits insights (chemins d’analyse, KPIs, représentation graphique, etc) ; Ecrire les spécifications des nouvelles fonctionnalités ; Réaliser les tests post développement, puis automatiser les recettes ; Être force de proposition pour améliorer les solutions développées et identifier des opportunités de nouvelles analyses, pour répondre aux besoins de nos utilisateurs Notre stack data : GCP, BigQuery, Looker Studio

CDI

Offre d'emploi
Chef de Projet Cybersécurité

ADDIXWARE
Publiée le
Security Information Event Management (SIEM)

40k-50k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

En tant que Chef de Projet Cybersécurité, vous aurez la responsabilité de piloter et coordonner différents projets liés à la sécurité des systèmes d'information (SI). Votre rôle sera de veiller à la bonne conduite des initiatives visant à renforcer la cybersécurité de l'entreprise, en collaboration avec les équipes internes et les prestataires externes. Vous interviendrez notamment dans la mise en place et l'évolution des solutions de sécurité (comme les systèmes d'information et de gestion des événements de sécurité, SIEM), la gestion des audits de sécurité, la rédaction et le suivi des appels d'offres, ainsi que le pilotage de projets stratégiques en lien avec la sécurité informatique. Votre compréhension des enjeux de la cybersécurité sera essentielle pour garantir la protection des actifs informationnels de l’entreprise. Gestion de projets cybersécurité : Piloter les projets de sécurité, de la définition des besoins à la mise en production. Coordonner les équipes techniques internes et les prestataires externes. Assurer le respect des délais, des coûts et de la qualité des livrables. Suivi et évolution des solutions de sécurité : Suivre l’évolution et les performances des solutions de sécurité, telles que les SIEM, les solutions de détection d'intrusion (IDS/IPS), ou encore les outils de gestion des identités et des accès (IAM). Garantir une gestion proactive des incidents de sécurité, en lien avec les équipes SOC (Security Operations Center). Pilotage des audits de sécurité : Organiser et superviser les audits de sécurité (internes ou externes). Analyser les résultats, identifier les faiblesses du système d’information, et proposer des plans d’action pour corriger les vulnérabilités. S'assurer de la conformité aux normes et régulations en vigueur (ISO 27001, RGPD, etc.). Gestion des appels d’offres : Travailler sur les appels d’offres pour le renouvellement ou la mise en place de nouvelles solutions de sécurité. Rédiger les cahiers des charges, analyser les propositions des fournisseurs et participer à la sélection des prestataires. Suivre les projets d’intégration des solutions retenues. Veille technologique et gestion des risques : Assurer une veille continue sur les nouvelles menaces, les réglementations en matière de cybersécurité et les évolutions technologiques. Participer à l’identification et à la gestion des risques liés à la sécurité des systèmes d’information. Communication et sensibilisation : Travailler avec les parties prenantes de l'entreprise (direction, équipes métiers, équipes techniques) pour les sensibiliser aux enjeux de la cybersécurité. Mettre en place des programmes de formation et de sensibilisation pour améliorer la prise de conscience des bonnes pratiques de sécurité.

Freelance
CDI

Offre d'emploi
CHEF DE PROJET

MSI Experts
Publiée le
Méthode Agile
Salesforce Sales Cloud

1 an
28k-200k €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un Chef de Projet SalesForce . Vous jouerez un rôle clé dans la planification, la coordination et le déploiement de solutions SalesForce, en assurant la satisfaction des parties prenantes et en veillant à la réussite des projets. Vos principales missions incluront : Pilotage des projets SalesForce, portails et communautés : Vous serez en charge de définir les priorités, organiser les lots, et assurer le bon déroulement des projets depuis le cadrage jusqu'au déploiement des fonctionnalités. Vous assurerez une communication fluide entre les différents acteurs. Vous anticiperez et minimiserez les risques liés aux projets pour garantir leur réussite. Vous veillerez à la maîtrise des coûts et au respect des échéances. Vous réaliserez des comptes-rendus réguliers ainsi que des reportings clairs pour suivre l’avancement des projets. Vous orchestrerez le lancement des différentes phases des projets en coordonnant les équipes internes et externes.

Freelance
CDI

Offre d'emploi
Ingénieur SIEM coordination collecte de logs - H/F

TOHTEM IT
Publiée le
Security Information Event Management (SIEM)

1 an
45k-60k €
Toulouse, Occitanie

Nous recherchons pour un de nos clients dans le secteur bancaire un/une Ingénieur pour coordonner la collecte de logs de sécurité. Vos missions seront les suivantes : La mise en place de l'architecture de collecte Coordonner la collecte de logs de sécurité. L'intégration des nouvelles collectes La migration vers une collecte en temps réel La supervision de la réception des logs La gestion des certificats SSL La formalisation de documents techniques Optimiser les flux de collecte de logs pour garantir des performances optimales du système SIEM.

Freelance
CDI

Offre d'emploi
Développeur(se) Python/Flask / React

HIGHTEAM
Publiée le
AWS Cloud
Flask
Pandas

3 ans
10k-70k €
Île-de-France, France

Description du poste : Nous recherchons un(e) Développeur(se) Python pour rejoindre une équipe en charge du développement des applications logicielles chez notre client. Vous travaillerez en étroite collaboration avec l'équipe de business analysts pour gérer le backlog applicatif, rédiger, suivre et tester les user stories, et définir les priorités. Missions principales : Développer et maintenir les applications en Python, en utilisant Flask, SQLAlchemy, Pandas, et PostgreSQL. Participer à la conception, la réalisation et la mise en place de tests unitaires, de recettes, et de déploiements en production. Contribuer au développement front-end en utilisant des frameworks comme React. Travailler sur l'hébergement et la gestion des applications sur AWS. Suivre et documenter les livrables tels que le suivi mensuel du temps (Monthly Time Track), le rapport d'activité, le tableau de bord des KPI, etc. Collaborer efficacement avec les différentes équipes pour assurer la bonne gestion des projets en mode Agile.

Freelance

Mission freelance
Data engineer (H/F)

Anywr freelance
Publiée le
BigQuery
Google Cloud Platform

12 mois
100-440 €
Lille, Hauts-de-France

Le profil interviendra au sein de la direction informatique , dans le service Data Analytics. Il intégrera une Squad Data : Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Profil avec un minimum de 5 ans d'expériences.

Freelance

Mission freelance
Data Engineer GCP H/F

LeHibou
Publiée le
Google Cloud Platform

6 mois
500-600 €
Charenton-le-Pont, Île-de-France

Notre client dans le secteur Banque et finance recherche un/une Data Engineer GCP H/F Description de la mission: Contexte / Objectifs : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Description : • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View Compétences / Qualités indispensables : Plateforme et environnement GCP (indispensable), • Environnement GKE, • Stockage : HDFS / GCS, • Traitement: Maitrise de l’écosystème Spark / Kafka / Scala, • Planification : Airflow / Composer, • DWH : SQL, BigQuery, BigTable, • Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build Informations concernant le télétravail : 2 jours

624 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous