Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur sécurité CLOUD
On recherche pour notre client final grand compte un Ingénieur sécurité cloud pour le maintien en condition des équipements de sécurité - Mise en place des infrastructures réseau et sécurité au sein des Clouds GCP, AZURE - Mise en place des solutions d'interconnexion - Support niveau 3 sur tout incident opérationnel sur les équipements sécurité dans l'environnement cloud et datacenters associés - Identifier et mettre en place les correctifs et évolution des ingénierie si nécessaire - Rédaction de procédure et de document technique à suivre par les équipes assurant les niveaux 1 et 2 - Accompagnement des projets pour la mise en place de l'environnement réseau associé (flux, routage, ...) - Participation aux projets de modernisation des différentes services réseaux ( Firewalls, dns, router, ...) - Suivi des actions de remédiation pour corriger les vulnérabilités sécurité et Mise en conformité les équipements et réseaux et sécurité concernés
Mission freelance
Data Analyst GCP Python appétence Date ingénierie
PAS DE SOUS-TRAITANCE // MERCI Nous recherchons un Data Analyst passionné par la Data Ingénierie pour rejoindre une équipe dynamique dans un environnement stimulant. En tant que Data Analyst , vous jouerez un rôle clé dans l’analyse et la gestion des données au sein d’une organisation innovante. Vous interviendrez également sur des aspects techniques de la data ingénierie pour optimiser et structurer les pipelines de données. Compétences requises : • Excellente maîtrise de GCP pour la gestion des pipelines et des infrastructures cloud. • Expertise en SQL pour extraire, manipuler et analyser des données complexes. • Connaissance avancée de Python pour automatiser les processus et gérer les workflows. • Expérience avec dbt pour transformer les données. • Utilisation de Argo pour l’orchestration des workflows. • Maîtrise de Terraform pour le déploiement d’infrastructures cloud. • Capacité à créer des rapports visuels et dynamiques avec Power BI .
Mission freelance
Expert Securité GCP IAM
Contexte de la mission : La prestation se déroulera au sein du CCOE, dont l'objectif principal est d'accompagner les métiers dans l'intégration GCP. La prestation consiste à : - Conception et Spécifications Techniques : Définir les spécifications techniques détaillées pour l'infrastructure cloud sur GCP, en tenant compte des exigences de sécurité. - Déploiement et Exploitation : Mettre en place l'infrastructure cloud GCP en suivant les bonnes pratiques de sécurité et en assurant le déploiement automatisé à l'aide d'outils CI/CD et l'Infrastructure as Code (IaC) - Intégration de la Sécurité dans le design de la solution : Collaborer avec les équipes de développement pour intégrer la sécurité dès les premières phases du processus de développement (DevSecOps), en automatisant les tests de sécurité, les analyses de vulnérabilités et les contrôles de conformité dans les pipelines CI/CD. - Surveillance et Détection des Menaces : Mettre en place des outils de surveillance et de détection des menaces sur l'infrastructure cloud GCP, en surveillant en temps réel les activités suspectes et en répondant rapidement aux incidents de sécurité potentiels. - Gestion des Incidents de Sécurité : Mettre en place des procédures de gestion des incidents de sécurité pour répondre efficacement aux menaces ou aux incidents de sécurité, en collaborant avec l'équipe SOC (Security Operations Center) et en assurant un suivi régulier. - Gestion des Identités et des Accès (IAM) : Définir et maintenir des politiques de gestion des identités et des accès (IAM) sur GCP, en s'assurant que seules les personnes autorisées ont accès aux ressources et données sensibles, et en garantissant la mise en place de principes de moindre privilège. - Gestion des Vulnérabilités : Mettre en œuvre et maintenir un processus de gestion des vulnérabilités pour identifier, évaluer et traiter les vulnérabilités de sécurité sur l'infrastructure cloud GCP, en collaborant avec les équipes de développement pour appliquer les correctifs et les mises à jour de sécurité nécessaires - Analyse des Logs et des Alertes : Effectuer une analyse approfondie des logs et des alertes de sécurité générés par les outils de surveillance et de détection des menaces, en identifiant les comportements suspects, les anomalies de sécurité et en prenant des mesures proactives pour les atténuer. - Reporting et Suivi : Élaborer des rapports réguliers sur l'état de la sécurité et de la performance de l'infrastructure cloud GCP, en fournissant des indicateurs clés de performance (KPI) et des recommandations pour améliorer continuellement la sécurité et l'efficacité opérationnelle. - Conformité et Audits de Sécurité : Assurer la conformité aux normes de sécurité définies par l'entreprise et aux réglementations applicables en effectuant des audits réguliers de sécurité sur l'infrastructure cloud GCP, en identifiant les écarts de conformité et en mettant en œuvre les actions correctives nécessaires.
Mission freelance
Data analyst (H/F)
Le scope métier couvre l'ensemble des activités du retail (Marketing / Finance / Produit etc). Missions : - Conçoit , déploie et assure le RUN des data pipelines, datasets et KPI - Crée à partir des données présentes dans la plate-forme Data la modélisation et les traitements nécessaires à l’exploitation des données, à destination des usages analytiques. - Assure la maintenance de ce qui a été produit. - Réalise des recettes techniques et fonctionnelles. - Veille au respect des normes et des pratiques de référence de la Data. - Accompagne les consommateurs ou utilisateurs de solutions data dans leur choix d’indicateurs et leur expression de besoin d’accès aux données - Garantit l’alignement et la cohérence des solutions data - Travaille en étroite collaboration aussi bien avec les équipes techniques que métier.
Mission freelance
Senior SRE GCP
Définition de la prestation Compétences indispensables Expert en infrastructure Azure/GCP Très bonne maîtrise sur la manipulation des certificats des reverse proxy (LB7 GCP, NGINX, HA proxy) Maîtrise des composants en Private access Excellente maîtrise de la gestion des droits Azure/GCP: l'objectif étant de respecter le principe de "moindre privilège". Excellente maîtrise autour des VPC Peering et les quotas associés. Tout est fait "as code" au travers de notre plateforme CI/CD (Terraform, Ansible, Jenkins..). Autres informations Déjà 47% du parc applicatif Carrefour est hébergé sur nos infrastructures, objectif 100% en 2026. Fonctionnellement, nos clients (différentes BU de Carrefour) doivent pouvoir être autonomes et faire un maximum de "self service" sur les changements d’infrastructure, souvent orientés sur la configuration des équipements de sécurité et les expositions de services. Nous sommes client centric : nous prenons en charge la complexité pour que l’usage soit facilité pour nos clients ! Nous agissons en tant que Cloud Service Provider interne. Nous fournissons les socles Cloud pour l’ensemble des projets Carrefour. Nous construisons et faisons le run des infrastructures partagées pour différents types de workloads de production. Nous améliorons notre service en continu, via une automatisation toujours plus poussée (self healing, immutable) Nous utilisons les best practices SRE. Compétences requises Domaines techniques Administration Réseau - EXPERT Administration Système - EXPERT Sécurité - EXPERT Technologie Web - EXPERT Technologies ANSIBLE - EXPERT CLOUD AZURE - EXPERT CLOUD GCP - EXPERT JENKINS - EXPERT PYTHON - EXPERT Environnements linguistique Français - EXPERT Autres compétences Jenkins Terraform Python Private PaaS Azure/GCP Network Azure/GCP ReverseProxy PaloAlto
Offre d'emploi
skiils se renforce et recherche son/sa DevOps pour renforcer ses équipes au Maghreb (remote)
En tant qu'ingénieur DevOps, et dans un contexte AGILE et d’intégration et de delivery continu (CI/CD), vous rejoindrez un de nos clients sur un environnement multi Cloud Azure/GCP. Vous serez en relation directe avec les équipes projets, les équipes en charge de fournir les services socles, les exploitants et les architectes Cloud. Votre Rôle Sera De Contribuer à la conception bas niveau des solutions, Déployer les environnements techniques et les intégrer dans l’écosystème cible, Vérifier la compatibilité entre les différents composants logiciels, matériels ou systèmes , Intégrer et tester la solution dans les différents environnements techniques (Intégration, Préproduction…), Contribuer à la rédaction des manuels d’installation et d’exploitation de la solution, Apporter le support aux OPS en charge du déploiement des solutions, Contribuer aux supports et aux évolutions sur la chaîne outillée CI/CD.
Mission freelance
Data Analyste GCP / SQL / Big Query / Expertise métier en grande distribution
Une offre de solutions de data analyse et de collaboration destinée à nos partenaires industriels ainsi qu’aux directions internes , à l’échelle internationale ainsi qu’à l’échelle nationale dans chaque pays, L’ambition de cette plateforme est de permettre une collaboration forte et transparente sur toute la chaîne de valeur. Description du poste Ce poste est rattaché à la Directrice Data Links. Au sein d'une équipe composée de data analystes intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer et analyser les données du Data Lake du groupe ; Participer au cadrage des nouvelles fonctionnalités ; Organiser des master-class pour partager ses connaissances métiers à son équipe Designer les nouveaux Dashboard de nos produits insights (chemins d’analyse, KPIs, représentation graphique, etc) ; Ecrire les spécifications des nouvelles fonctionnalités ; Réaliser les tests post développement, puis automatiser les recettes ; Être force de proposition pour améliorer les solutions développées et identifier des opportunités de nouvelles analyses, pour répondre aux besoins de nos utilisateurs Notre stack data : GCP, BigQuery, Looker Studio
Mission freelance
Data Steward
La mission consiste à : - Maitriser et documenter la donnée métier - Garantir la méthodologie et le maintien de la qualité des données - Mission sur la métropole lilloise avec télétravail hybride (2 ou 3 jours / semaine) Compétences recherchées : - Une expérience au sien d’une équipe de gouvernance des données et/ou une expérience autour de la mise en qualité des données - Connaissance des principes de la gouvernance de la donnée - Connaissance en analyse et gestion de la donnée - Maitrise du fonctionnement en équipe agile - Capacité d'analyse et de synthèse - Cloud (GCP)
Mission freelance
Network Security Architect
Notre client, un grand groupe international, recherche un Cybersecurity Architect très qualifié et expérimenté, avec un fort accent sur la sécurité des réseaux, pour rejoindre l’équipe Cloud & Architecture Cybersecurity en pleine croissance. Le candidat idéal sera responsable de la conception, de la mise en œuvre et du maintien d'architectures de sécurité robustes qui protègent l'infrastructure réseau et les données sensibles de notre organisation. Ce rôle exige une compréhension approfondie des principes, des architectures et des technologies de sécurité des réseaux afin de garantir la sécurité des systèmes contre les menaces actuelles et émergentes. LE RÔLE - OBJECTIF DU POSTE Le Network Security Architect est responsable de la sécurité de la connectivité entre tous les sites du client, qu'ils soient dans le Cloud ou sur site. PRINCIPALES RESPONSABILITES Conception et mise en œuvre : - Développer et mettre en œuvre des architectures de sécurité réseau complètes alignées sur les objectifs et les politiques de sécurité de l'organisation. - Concevoir des solutions de réseau sécurisées, y compris des pare-feu, des VPN, des systèmes de détection/prévention des intrusions (IDS/IPS) et des systèmes de contrôle d'accès au réseau (NAC). - Elaborer des stratégies de segmentation du réseau afin de limiter l'accès et de réduire la surface d'attaque. Évaluation et gestion des risques : - Procéder à des évaluations approfondies des risques et à des analyses de vulnérabilité afin d'identifier les risques de sécurité potentiels dans les infrastructures de réseau. - Élaborer et mettre en œuvre des stratégies d'atténuation pour remédier aux vulnérabilités et aux risques identifiés. - Collaborer avec les équipes informatiques et opérationnelles pour intégrer des contrôles de sécurité dans les conceptions de réseaux existants et nouveaux. Politiques de sécurité et conformité : - Élaborer, mettre en œuvre et maintenir des politiques, procédures et normes de sécurité du réseau en conformité avec les meilleures pratiques de l'industrie et les exigences réglementaires (par exemple, PCI-DSS, HIPAA, GDPR). - Collaborer avec les équipes d'audit interne et de conformité afin de remédier à tout problème lié à la sécurité du réseau. Surveillance et réponse aux incidents : - Concevoir et mettre en œuvre des solutions de surveillance de la sécurité afin de détecter les incidents de sécurité du réseau et d'y répondre. - Collaborer avec l'équipe chargée des opérations de sécurité afin d'établir et de maintenir un plan de réponse aux incidents de sécurité du réseau. Évaluation et innovation technologiques : - Évaluer et recommander de nouvelles technologies et solutions de sécurité afin d'améliorer la posture de sécurité du réseau. - Diriger les initiatives de PoC pour les nouveaux outils et solutions de sécurité. Formation et sensibilisation : - Fournir des conseils et une formation aux équipes IT et aux autres employés sur les meilleures pratiques et politiques en matière de sécurité du réseau.
Mission freelance
Data Engineer GCP H/F
Notre client dans le secteur Banque et finance recherche un/une Data Engineer GCP H/F Description de la mission: Contexte / Objectifs : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Description : • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View Compétences / Qualités indispensables : Plateforme et environnement GCP (indispensable), • Environnement GKE, • Stockage : HDFS / GCS, • Traitement: Maitrise de l’écosystème Spark / Kafka / Scala, • Planification : Airflow / Composer, • DWH : SQL, BigQuery, BigTable, • Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build Informations concernant le télétravail : 2 jours
Mission freelance
Data engineer (H/F)
Le profil interviendra au sein de la direction informatique , dans le service Data Analytics. Il intégrera une Squad Data : Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Profil avec un minimum de 5 ans d'expériences.
Mission freelance
Data steward
Le service observabilité est une entité transverse de la direction du système d’information et du Digital, au service des Directions Métiers et de la DSID. Sa mission est de définir et de mettre en œuvre les solutions de supervision techniques, applicatives et fonctionnelles. Dans le cadre d'un nouveau programme, nous devons renforcer la capacité du produit observabilité à déployer de nouvelles solutions. MAITRISER ET DOCUMENTER LA DONNEE METIER • Apporte un conseil personnalisé répondant aux problématiques des acteurs de la donnée • Qualifie et enrichie la donnée en s’assurant que l’utilisateur dispose du plus grand nombre d’informations (catalogue de données, validation de la définition de la donnée) • Accompagne la cartographie de la donnée • Optimise la prise en main et l’utilisation et de la donnée en facilitant sa compréhension • Accompagne les acteurs de la donnée dans le maintien de la connaissance de la donnée (dictionnaire, référentiels de contrôle) GARANTIR LA METHODOLOGIE ET LE MAINTIEN DE LA QUALITE DES DONNEES • Accompagne les acteurs de la donnée dans le respect des règlementations en vigueur (RGPD, …) et des règles d’éthique définies au sein du Groupe. • Apporte un conseil pour fiabiliser la provenance de la donnée afin d’en maitriser son usage (cycle de vie) • Accompagne les acteurs de la donnée dans la maitrise de la qualité de leurs données : diagnostic, suivi de leur procédure de qualité • Déployer et pérenniser les procédures de détection et de correction des problèmes de qualité des données
Offre d'emploi
Ingénieur Infra Cloud (AZURE/ GCP)
Rôle principal : Concevoir, déployer et maintenir les infrastructures cloud robustes et évolutives. Collaborer étroitement avec les équipes de développement logiciel, les équipes techniques et les architectes pour garantir des solutions performantes et sécurisées. Déploiement d’architectures cloud : En collaboration avec les architectes, l’ingénieur participera à l’élaboration des architectures cloud robustes en utilisant des services tels qu’Azure ou GCP. Le déploiement se fera via des outils comme Terraform et Ansible, qui permettent de décrire l’infrastructure en code et de la déployer de manière reproductible. Gestion des ressources cloud : L’ingénieur sera responsable de la création, de la configuration et de la gestion des ressources cloud. Il/elle devra surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Intégration dans les pipelines CI/CD : Travaillant en étroite collaboration avec les équipes de développement, l’ingénieur devra intégrer les meilleures pratiques d’infrastructure dans les pipelines CI/CD. Cela peut inclure l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, etc. Principales tâches : Résolution des problèmes d’infrastructure : Diagnostiquer et résoudre les problèmes liés à l’infrastructure cloud. Gestion des ressources cloud : Création, configuration et gestion des ressources cloud. Surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Intégration dans les pipelines CI/CD : Intégrer les meilleures pratiques d’infrastructure dans les pipelines CI/CD. Cela peut inclure l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, etc. Résolution des problèmes d’infrastructure : Diagnostiquer et résoudre les problèmes liés à l’infrastructure cloud. Cela peut inclure des problèmes de performance, de sécurité, de disponibilité, etc. Collaboration avec les équipes : Travailler en étroite collaboration avec les développeurs, les ingénieurs de production, les architectes et les autres membres de l’équipe afin de garantir que l’infrastructure répond aux besoins des applications. Participer à des réunions d’équipe, partager les connaissances et contribuer à l’amélioration continue des processus
Mission freelance
Data Engineer GCP Finance
Dans ce cadre, nous recherchons un développeur Full Stack, ayant une solide expérience dans le Cloud GCP Récupérer les données issues de sources externes • Utiliser la puissance du Data Lake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le data Lake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des Spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data Lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Offre d'emploi
Data Analyst/Engineer H/F
Votre 1er projet : Vous accompagnerez notre client, un grand compte historique de la région. Votre intégrerez une équipe dédiée à la conception d’un outil dédié à l’autonomie des clients. Dans ce contexte, nous recherchons un Analytics Engineer ou BI Engineer pour soutenir l’activité de notre client. Vous travaillerez dans environnement international et anglophone avec des standards de haut niveau. Vos missions : · Construire et optimiser les pipelines de données dans notre entrepôt de données · Effectuer des analyses pour répondre aux différentes opportunités commerciales · Construire, automatiser et maintenir des rapports avec nos outils BI. · Assurer la cohérence et la qualité des données transmises en mettant en œuvre la stratégie de gestion des données convenue. Vous vous y voyez déjà, pas vrai ? Ça tombe bien, ce n’est pas fini !
Mission freelance
Devops/développeur Java
Contexte L’équipe Infrastructure au sein de la Direction des Systèmes d’Information du client recherche un(e) profil DevOps/Developpeur Full Stack pour la gestion opérationnelle de ses infrastructures. • Une infrastructure MultiCloud (AWS – 90%, Azure, GCP) • L’hébergement de Portails Web (10 portails) et Services Backend (+200 applications dockerisées) • L’hébergement d’une Factory DevOps (CICD/Testing/Monitoring) • L’hébergement d’une plateforme Data Analytics, DataViz, • L’hébergement d’une plafeforme d’Echange (Serveurs de fichiers, ETL, Bases de données) Principaux périmètres pour cette mission : Mise en place d'un portail de Self Service Infrastructure avec API AWS (gestion du frontend et backend) Participation à la mise en place d’une Landing Zone AWS en remplacement de deux comptes historiques Migration/Création de l’infrastructure de micro-services java, nodejs, php vers Landing zone Réalisations de nouvelles infrastructures pour les demandes des équipes applicatives Intégration des applications sur ECS, dockerisation, déploiement Intégration des applications dans l’écosystème DevOps (CI/CD, Monitoring, Testing) Création de pipelines CI/CD sur Jenkins et Gitlab CI Infrastructure as code avec Terraform Provisioning de l’Infrastructure avec Ansible Support aux équipes applicatives et troubleshooting sur les anomalies Gestion du RUN et des incidents de production Environnement technique: • Cloud : AWS (EC2, ECS, RDS, S3, EKS, ELK, …) / Azure / GCP • Langage applicatif : JBOSS, Widlfly, Spring, NodeJS, PHP, • IAC : Docker, Terraform, Ansible, • FACTORY : Jenkins, Okta, Grafana, Splunk, Gitlab, Kubernetes, Jira, Confluence, API Management • DATA : TIDB, Databricks, Informatica, MS-BI, Oracle GoldenGate, Hadoop, Spark, EMR, SAS, • DataBase : MySQL, SQL Server, MariaDB, MongoDB, ORACLE
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes