Trouvez votre prochaine offre d’emploi ou de mission freelance Clustering à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC
💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) : La collecte de log La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition) La mise en place d'un monitoring plus fin avec utilisation de l'IA La configuration de logstash pour des tâches de parsing et d'enrichissements. La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources. L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont : La mise à jour de la documentation La maintien en condition des outils Le développement des outils d'expoitation La gestion des tickets d'incidents La gestion des requêtes
Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC
💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) : La collecte de log La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition) La mise en place d'un monitoring plus fin avec utilisation de l'IA La configuration de logstash pour des tâches de parsing et d'enrichissements. La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources. L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont : La mise à jour de la documentation La maintien en condition des outils Le développement des outils d'expoitation La gestion des tickets d'incidents La gestion des requêtes
Mission freelance
Développeur(euse) Expert(e) - Java 8 à 11 et Migration Elasticsearch
Développeur (euse) Expert(e) Elastic Search / Java CONTEXTE Au sein d'un domaine Front Web, la mission consiste à assister dans le développement la montée de version ElasticSearch au sein d'une application vente. Cette application à comme objectifs: • Les données « produits » sont enregistrées dans un cluster Elastic • Les données sont utilisées par différentes applications pour la recherche et l'affichage des informations produits sur une market place • D'être hautement disponible avec des performances idéales DESCRIPTION DE LA MISSION - Opérer la montée de version d'Elasticsearch actuellement en version 6 pour passer sur une version 8 latest dans un contexte fonctionnel riche - Participer aux développements à venir ENVIRONNEMENT TECHNIQUE - Java 8 - Elastic search 6+ - Framework Dropwizard -Application haute disponibilité, haute performance
Mission freelance
Expertise Splunk (admin, MCO...) - Cyber Paris
Expertise Splunk d'au moins 5 ans Anglais nécessaire - environnement international Tâches: - Infra (MCO des machines, migrations, monitoring) - Administration Splunk (updates, indexing, datamodels, scheduling) - dans une moindre mesure Développement Splunk (searches, dashboards, etc.) Environnement: - Cluster Splunk - HEC, SH, SHC, DS, UF, HF (une dizaine de machines) - Usages sécurité (sans Enterprise Security) & IT - Licence à 1,5To/jour Profil: - 5 ans d'expérience d’administration Splunk minimum - télétravail hybride - disponible au plus tard avril 2025
Offre d'emploi
Expertise Containers Docker / Kubernetes / Harbor Registry
La prestation consiste à/au(x) : - Développement et au maintien en condition opérationnelle des plateformes de containers orchestrés Kubernetes (Infra/cluster Docker Kubernetes) qui hébergent les applications - Développement et maintien en condition opérationnelle des infrastructures de la Registry d’images associées (Harbor) à la fois sur le cloud interne et les clouds publics (AWS et Azure) - L'identification et à la conduite de plans d'actions visant à assurer la maintenabilité, la résilience et la scalabilité des infrastructures - Support et à l'assistance aux utilisateurs dans l’utilisation du service - La mise en place du monitoring et alerting adéquats sur les plateformes infrastructures - Assurer les remontées nécessaires - La conduite du changement Environnement Anglophone Environnement Agile
Offre d'emploi
ADMINISTRATEUR HADOOP
Missions : Assurer le maintien en conditions opérationnelles des environnements en collaboration avec les N3 Traitement des incidents d'exploitation sur tous les environnements (production, Intégration et Qualif) : analyse, diagnostic (mise en exergue de la root cause) et implémentation de solutions Assistance aux clients de la dataplatform dans leur optimisation de traitements / requêtes Astreintes 2 jours par mois déclenchées sur incident, à se répartir sur l'équipe support Automatisation de l'infrastructure BigData / actions récurrentes via ANSIBLE Implémentation des recommandations N3/cloudera Participer aux déploiements de cluster Produire de la documentation sous Confluence, Git mais aussi Jira en renseignant les détails de résolution Agilité à l'échelle sur toutes les équipes de la Dataplatform, participation aux rituels SCRUM (System Demo/Lancement de sprint/PI planning/Rétrospective)
Mission freelance
Administrateur Bases de Données (DBA) - Paris, Lyon ou Nantes (H/F)
Vous travaillerez en étroite collaboration avec les équipes métiers et techniques pour résoudre des problématiques complexes, auditer les performances des bases, et gérer des environnements critiques de données de santé. Administration des bases de données : Gestion des bases SQL Server (standalone, Always-On), PostgreSQL (Primary/Standby, Streaming Replication), et Oracle (en standalone ou cluster). Installation, configuration, et optimisation des bases. Support des infrastructures locales et externalisées. Diagnostics et résolution d’incidents : Analyse des incidents remontés par les utilisateurs et équipes techniques. Interaction avec les éditeurs et infogérants pour résoudre les problématiques. Optimisation des performances, tuning SQL et requêtes lentes. Projets techniques : Audits d’infrastructures pour des refontes ou mises à jour. Migration de bases vers de nouvelles plateformes (on-premise ou cloud). Déploiement et maintenance d’outils de monitoring. Collaboration et relationnel : Interaction avec des équipes transverses : IT local, réseau, systèmes, métiers. Contribution à la définition des solutions techniques auprès des éditeurs. Documentation et reporting : Rédaction des documentations techniques et procédures. Reporting régulier des travaux menés.
Offre d'emploi
Expertise Dataiku, Tableau et ML/IA
Le Bénéficiaire souhaite une prestation d'accompagnement (2,5 à 3 ans) pour assurer un service d'expertise autour de Dataiku, de Tableau et du ML/IA aux utilisateurs de la plateforme Prométhée. Cette plateforme permet aux Fonctions Centrales RISK, FINANCE et STFS de BNP Paribas de réaliser des travaux réglementaires sensibles du Groupe (stress tests bancaires, calcul du capital interne, reportings financiers, …). Elle intègre et met à disposition, avec le support d’équipes de production dédiées, les services suivants : - Cluster Hadoop CDP 7.1.9 ; - Cluster K8S ; - Service d’ingestion de données (application Java/Spark/Shell développée en interne) ; - Dataiku DSS et Automation Node (v. 12.6) comme point d’entrée du Métier sur tous les services ; - Service d’archivage de données (application Java/J2E développée en interne) ; - Dataviz via offre Tableau Groupe. Les missions de l’équipe Prométhée sont : 1. Gestion au quotidien & gouvernance de la plateforme ; 2. Maintien en conditions opérationnelles de la plateforme : a. Traitement des incidents ; b. Gestion des montées de versions des différents composants systèmes et applications, en collaboration avec les équipes de production ; c. Anticipation de la charge et planification des évolutions requises pour y faire face ; 3. Garantie de la sécurité et de la disponibilité du service : mise en place et monitoring de solutions de backup des données et des politiques de sécurité d’accès ; 4. Veille à l'évolution de la plateforme pour répondre aux nouveaux besoins métiers ; 5. Support utilisateurs sur les différents composants de la plateforme. Ce contexte exige une grande polyvalence technique et une réelle compréhension des principaux composants d'un SI (réseau, système, sécurité). La Tribe Prométhée est composée de 3 Squads de 5-6 personnes ayant chacune 1 Product Owner et 1 Tech Lead. La prestation sera réalisée au sein de la Squad Data Usage dont les principales missions sont : - d'assister les utilisateurs de Prométhée sur les outils Dataiku et Tableau ainsi que dans le choix et l'utilisation de modèles de ML/IA ; - de concevoir et d’assurer l’insertion opérationnelle de modèles de ML/IA répondant à de forts enjeux pour nos utilisateurs et pour la Banque. L’équipe est située sur le site du Millénaire 4 (Paris 19) et le rythme est de 50% de présence sur site.
Mission freelance
Développeur PHP / Symfony / VUE JS
Nous vous proposons aujourd'hui une mission chez un de nos grand client en place parisienne dans le secteur du divertissement. Il s'agit ici de participer au développement d'outil interne servant à régir les ingestions vidéos et mises en ligne. Cet outil est composé: - d'un backoffice, permettant aux équipes éditioriales de planifier et suivre les ingestions et mises en lignes des contenus - et de workflows permettant la récupération des vidéos, leur envoi au service de transcodage, leur envoi aux partenaires, etc ... L'outil est développé en PHP 8.1, avec Symfony 5.4 actuellement, et VueJS pour la partie front . Ces éléments techniques sont régulièrement mis à jour (l'outil a plus de 10 ans). Il tourne sur AWS dans un cluster Kubernetes: une expérience du Cloud est appréciée, ainsi que des environnements Linux . Des changements d'architecture autour d'un bus évenementiel Kafka sont en cours, avec des messages sérialisés en Protobuf. La communication avec les partenaires se fait par différents transports (SFTP, Aspera ...) avec des formats variés (XML, JSON ...). Le domaine métier est très riche et sa bonne compréhension sera essentielle à l'intégration dans l'équipe et au bon déroulement de la mission
Mission freelance
POT8109-Un Consultant Support e-santé sur Paris
Almatek recherche pour l'un de ses clients, un Consultant Support e-santé (recherche clinique) confirmé (> à 3 ans dans la fonction) Activités : Support Apporter un support utilisateurs (qualifier la demande, traiter les incidents N1/N2, escalader les incidents au support N2/N3 (équipe Plateforme ou fournisseur des solutions), suivre les demandes d’assistance, informer les utilisateurs des problèmes et des résolutions, tester les mises à jours et les correctifs, former et conseiller les utilisateurs, ….) Assurer le paramétrage/évolutions des solutions applicatives en interaction étroite avec la maitrise d’ouvrage Assister, en collaboration avec les référents et les datascientists des pôles et des URCs de la DRCI, la réalisation de projets de recherche clinique. Recenser les demandes d’évolution, documenter Assurer un reporting des activités de support aux chefs de projets des applications Capitaliser l’ensemble de la documentation du SI Recherche & Innovation (Rédaction et MAJ des procédures de résolution d’anomalie Organiser le transfert de compétences entre les équipes DSI et référents sur site Qualification Assurer la qualification des solutions (Test & validation) et leur documentation Tenue à jour du cahier de tests fonctionnels dans Excel et dans l’outil SILK Idéalement, mise à jour des tests dans l’outil Sélénium (compétence JavaScript) Réalisation des campagnes de tests (tests non-régressions (TNR), tests des nouveaux développements, …) Bilan de qualification Suivi des anomalies (identification, escalade à l’équipe dev, livraison des correctifs, tests & validation, …) Les prérequis à la prestation sont : Avoir de bonnes connaissances des différentes phases d’un projet informatique (conception, réalisation, qualification, déploiement en production), et des méthodologies de gestion de projet (cycle en V, Scrum, méthodes agiles) Savoir animer et conduire des réunions et des ateliers Savoir cadrer les besoins et les enjeux métier Gérer les exigences : recueillir, analyser, formaliser, documenter et valider les besoins fonctionnels et non fonctionnels Avoir des connaissances des problématiques fonctionnelles hospitalières (structures, processus) et des métiers de la santé (dont la recherche sur données et la recherche clinique) Avoir des connaissances des bases de données (PostgreSQL, Oracle) et la maîtrise des langages de requêtes associées] Avoir des connaissances des nouvelles technologies dites « Big data » (Hadoop, Cluster de calculs, plateformes Big-Data, IA) Avoir des connaissances en droit des données informatiques et de la protection des données personnelles (RGPD, ...) Être à l’aise dans un environnement multi-métier et multi-technologiques]
Offre d'emploi
Ingénieur Python API Kubernetes Cloud (école d'ingénieurs)
Pour la mission suivante : Mise en œuvre d'une offre « Cluster Microsoft SQL AsAservice » sur le Cloud privé : - Développement d' API permettant à nos clients de créer en mode self service des clusters Microsoft SQL En tant que développeur d’ API, vous aurez pour missions principales de : • Contribuer aux actions d'automatisation et de fiabilisation ; • Mettre en place les bonnes pratiques en terme de développement de code. • Traiter tant les aspects techniques et fonctionnels et intervenir sur l’ensemble des environnements de l’intégration à la production
Offre d'emploi
Architecte Hadoop H/F
Afin de renforcer ses équipes, notre client recherche un(e) architecte sur un environnement Hadoop / Big data de technologie Cloudera ; Et avec des compétences en développement autour des langages propres au domaine BigData, tels que Python, Spark, Hive, impala. Descriptif de la mission : Les missions sont : Ø Les missions porteront sur : o Pilotage et mise en œuvre opérationnelle des travaux de fiabilisation des socles Hadoop pour répondre aux exigences de performances attendues par les cas d'usages fonctionnels. Ø Evolution des architectures techniques : o Mise en place des principes directeurs sur l’utilisation du cluster Cloudera o Vérification de la bonne application des normes et des standards o Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster o Etude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop ; Ø Expertise Hadoop de niveau 3 o Configuration du cluster Cloudera en fonction des besoins identifiés o Optimisation des traitements ; Ø Support : o Accompagnement des équipes de développement o Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données o Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances Ø Savoir être : o Coordination et pilotage des chantiers en collaboration avec les différents services DSI o Autonomie pour la prise en charge des sujets et travail en équipe o Capacité à communiquer et s'adapter en fonction des différents interlocuteurs
Mission freelance
Consultant HPC (High Performance computing) et Data engineering / Slurm
Le client, acteur de l'énergie dans le domaine de la recherche et développement (R&D), souhaite renforcer son infrastructure de calcul haute performance pour répondre aux besoins de ses chercheurs. Le consultant interviendra pour administrer et optimiser un DGX (système spécialisé intégrant des GPU) en fournissant des services de gestion, de maintenance et de mise à jour. L’objectif est de garantir aux équipes de recherche un accès optimisé et performant à cette infrastructure critique. Administration et Gestion du DGX : Assurer la gestion quotidienne de l’infrastructure DGX, incluant la maintenance, les mises à jour, et l’optimisation de l’accessibilité pour les équipes R&D. Support HPC pour la Recherche : Apporter un support technique aux chercheurs dans l’utilisation et l’optimisation de ressources HPC, incluant le déploiement de workflows adaptés aux calculs intensifs. Gestion des ressources avec Slurm : Utiliser Slurm pour la gestion de files d’attente, l’ordonnancement et l’allocation de ressources afin de maximiser l’efficacité du cluster HPC. Data Engineering et Intégration de Données : Apporter une expertise en data engineering pour la préparation, l'intégration, et le traitement des données issues des simulations et calculs. HPC (High Performance Computing) : Expérience significative en administration et optimisation d’infrastructures HPC, idéalement avec du matériel DGX ou des systèmes intégrant des GPU. Data Engineering : Maîtrise des processus d’intégration, de transformation et d’analyse de données dans un environnement HPC. Outil de gestion de ressources : Maîtrise de Slurm , indispensable pour l’ordonnancement et la gestion des files d’attente. Langages de Programmation : Compétence en langages de scripting (ex. Python, Bash) et en langages utilisés dans le calcul scientifique et HPC. Systèmes d’Exploitation : Bonne connaissance de Linux, notamment pour l’administration de systèmes utilisés dans les environnements HPC. Mettre à disposition une infrastructure DGX performante et stable, adaptée aux besoins évolutifs de la R&D. Assurer une gestion efficace des ressources HPC via Slurm, permettant aux chercheurs d’optimiser leurs calculs et simulations. Garantir un support technique pour résoudre les problématiques liées au HPC et à la gestion des données R&D. Cette mission représente une collaboration technique et stratégique essentielle pour optimiser les capacités de calcul de l’infrastructure R&D du client.
Offre d'emploi
Expertise Containers Docker / Kubernetes / Harbor Registry
La prestation consiste à/au(x) : - Développement et au maintien en condition opérationnelle des plateformes de containers orchestrés Kubernetes (Infra/cluster Docker Kubernetes) qui hébergent les applications - Développement et maintien en condition opérationnelle des infrastructures de la Registry d’images associées (Harbor) à la fois sur le cloud interne et les clouds publics (AWS et Azure) - L'identification et à la conduite de plans d'actions visant à assurer la maintenabilité, la résilience et la scalabilité des infrastructures - Support et à l'assistance aux utilisateurs dans l’utilisation du service - La mise en place du monitoring et alerting adéquats sur les plateformes infrastructures - Assurer les remontées nécessaires - La conduite du changement Environnement Anglophone Environnement Agile
Offre d'emploi
Développeur Infra (pas data !) Python - Kubernetes H/F
Mise en œuvre d'une offre « Cluster Microsoft SQL AsAservice » sur le Cloud privé : - Développement d' API permettant à nos clients de créer en mode self service des clusters Microsoft SQL En tant que développeur d’ API, vous aurez pour missions principales de : • Contribuer aux actions d'automatisation et de fiabilisation ; • Mettre en place les bonnes pratiques en terme de développement de code. • Traiter tant les aspects techniques et fonctionnels et intervenir sur l’ensemble des environnements de l’intégration à la production
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.