Trouvez votre prochaine offre d’emploi ou de mission freelance Clustering

Votre recherche renvoie 44 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Développeur PHP / Symfony / VUE JS

SKILLWISE
Publiée le
Apache Kafka
AWS Cloud
Kubernetes

1 an
100-600 €
Paris, France

Nous vous proposons aujourd'hui une mission chez un de nos grand client en place parisienne dans le secteur du divertissement. Il s'agit ici de participer au développement d'outil interne servant à régir les ingestions vidéos et mises en ligne. Cet outil est composé: - d'un backoffice, permettant aux équipes éditioriales de planifier et suivre les ingestions et mises en lignes des contenus - et de workflows permettant la récupération des vidéos, leur envoi au service de transcodage, leur envoi aux partenaires, etc ... L'outil est développé en PHP 8.1, avec Symfony 5.4 actuellement, et VueJS pour la partie front . Ces éléments techniques sont régulièrement mis à jour (l'outil a plus de 10 ans). Il tourne sur AWS dans un cluster Kubernetes: une expérience du Cloud est appréciée, ainsi que des environnements Linux . Des changements d'architecture autour d'un bus évenementiel Kafka sont en cours, avec des messages sérialisés en Protobuf. La communication avec les partenaires se fait par différents transports (SFTP, Aspera ...) avec des formats variés (XML, JSON ...). Le domaine métier est très riche et sa bonne compréhension sera essentielle à l'intégration dans l'équipe et au bon déroulement de la mission

Freelance

Mission freelance
Expert Elasticsearch

4 Impact
Publiée le
Azure DevOps Services
CI/CD
Elasticsearch

3 mois
700-900 €
Saint-Denis, Île-de-France

Contexte : Dans le cadre de l’évolution du SI de notre client et de son expansion à l’international, nous recherchons un Expert Elasticsearch pour accompagner ses équipes dans la mise en place d’un cache de suggestion basé sur Elasticsearch. Mission principale : Votre rôle consistera à piloter techniquement la mise en œuvre de la solution en collaboration avec les équipes produit et techniques . Vous serez responsable de la sécurisation de la plateforme ELK/EFK , du support des équipes administratives et techniques dans la conception applicative et des évolutions futures. En tant qu'expert, vous garantirez la qualité, la performance, les coûts, et le respect des délais, tout en vous assurant du respect des normes de sécurité et de la RGPD. Responsabilités clés : Mise en œuvre technique de la solution Elastic Search : conception, tuning des requêtes, dimensionnement et administration (cluster, logs, backups). Sécurisation de la plateforme et accompagnement des équipes sur les bonnes pratiques. Participation aux développements spécifiques (écriture de requêtes, dashboards, supervision). Stratégie de tests et automatisation des processus de tests. Déploiement CI/CD de la solution et organisation de la maintenance future. Collaboration étroite avec les équipes de développement, Scrum et le Product Owner pour maximiser la valeur produit. Support opérationnel : gestion des incidents et amélioration continue des produits. Accompagnement des équipes sur la montée en compétences techniques.

Freelance

Mission freelance
Concepteur développeur : Java/Spark, devops, snowflake F/H

LeHibou
Publiée le
Apache Spark
Java
Snowflake

6 mois
540-600 €
Massy, Île-de-France

Descriptif de la mission: Contexte : Dans le cadre de son plan stratégique, notre client poursuit son développement dans l’objectif d’apporter encore plus de valeur à ses clients et partenaires sur les marchés du Crédit à la consommation notamment par l’exploitation de la donnée et des APIs. Les objectifs de cette équipe se définissent autour des axes et missions suivantes : - Définir avec l’équipe architecture groupe la roadmap technique. - Dans le cadre de l’industrialisation du socle technologique Data & API : * Participer à la mise en œuvre de nouvelles capacités techniques. * Faire évoluer les capacités existantes. * Créer des composants génériques facilitant le travail des développeurs data. Impliquant l’utilisation et l’évolution du socle CI/CD (Gitlab/Jenkins/Jfrog Artifactory). * Assurer la définition des bonnes pratiques (règles d’industrialisation) et de leur formalisation. * Accompagner les équipes des Business Units (IT local) lors des phases de cadrage et de Build. * Assurer le support de niveau 3 sur les composants en responsabilité et sur le framework PaaS. * Suivi et maintien du socle API (cluster Kubernetes) * Anticiper les améliorations et migrations vers de nouveaux socles technologiques (Snowflake/AWS). - Expert technique sur plusieurs assets groupe : * Comprendre les impacts des solutions mises en place. * Analyser les besoins métiers. * Accompagner les chefs de projets dans la définition des solutions techniques ou évolutions de leurs assets. * Veillez à la mise en place et aux suivis des bonnes pratiques sur les assets. * Initier la remise à niveau des assets quand ceux-ci divergent de nos normes. * Assurer un niveau de documentation technique suffisant au maintien, à l’utilisation et à la réinstallation des assets. ACTIVITES PRINCIPALES & LIVRABLES - Être le référent technique sur plusieurs applicatifs et composantes sur socles IT (DWH, CI/CD, Datalab, APIs…) en relation avec les streams Leaders et l’architecte Design Authority. - Apporter le support nécessaire aux entités dans leur utilisation accompagnement sur Talend/Java et sur l'amélioration de la performance de leur JOB ainsi que sur les bases de données (VERTICA/Oracle). Impliquant le suivi de migrations, l’amélioration des processus, l’administration de la TMC et l’entretien du lien avec l’éditeur et le support. - Développer les nouveaux composants (Talend / Java / Shell / Oracle / Vertica / Snowflake / Jupyter / Python) afin d'alléger le travail des entités dans la Data Factory et permettre aux entités de se focaliser sur leur business. - Assurer le RUN (niveau 3) de l'infrastructure en utilisant les composants pour debugger les applicatifs et pour apporter des solutions efficientes (ElasticSearch/Logstash/Kibana/Grafana). - Evaluer et valider les estimations de l’infogérant et des sous-traitants. - Accompagner et superviser les missions confiées aux sous-traitants. - Analyse, conception et mise en place d’un monitoring centralisé des flux Datawarehouse.

Freelance

Mission freelance
POT8109-Un Consultant Support e-santé sur Paris

Almatek
Publiée le
Oracle

6 mois
100-390 €
Paris, France

Almatek recherche pour l'un de ses clients, un Consultant Support e-santé (recherche clinique) confirmé (> à 3 ans dans la fonction) Activités : Support Apporter un support utilisateurs (qualifier la demande, traiter les incidents N1/N2, escalader les incidents au support N2/N3 (équipe Plateforme ou fournisseur des solutions), suivre les demandes d’assistance, informer les utilisateurs des problèmes et des résolutions, tester les mises à jours et les correctifs, former et conseiller les utilisateurs, ….) Assurer le paramétrage/évolutions des solutions applicatives en interaction étroite avec la maitrise d’ouvrage Assister, en collaboration avec les référents et les datascientists des pôles et des URCs de la DRCI, la réalisation de projets de recherche clinique. Recenser les demandes d’évolution, documenter Assurer un reporting des activités de support aux chefs de projets des applications Capitaliser l’ensemble de la documentation du SI Recherche & Innovation (Rédaction et MAJ des procédures de résolution d’anomalie Organiser le transfert de compétences entre les équipes DSI et référents sur site Qualification Assurer la qualification des solutions (Test & validation) et leur documentation Tenue à jour du cahier de tests fonctionnels dans Excel et dans l’outil SILK Idéalement, mise à jour des tests dans l’outil Sélénium (compétence JavaScript) Réalisation des campagnes de tests (tests non-régressions (TNR), tests des nouveaux développements, …) Bilan de qualification Suivi des anomalies (identification, escalade à l’équipe dev, livraison des correctifs, tests & validation, …) Les prérequis à la prestation sont : Avoir de bonnes connaissances des différentes phases d’un projet informatique (conception, réalisation, qualification, déploiement en production), et des méthodologies de gestion de projet (cycle en V, Scrum, méthodes agiles) Savoir animer et conduire des réunions et des ateliers Savoir cadrer les besoins et les enjeux métier Gérer les exigences : recueillir, analyser, formaliser, documenter et valider les besoins fonctionnels et non fonctionnels Avoir des connaissances des problématiques fonctionnelles hospitalières (structures, processus) et des métiers de la santé (dont la recherche sur données et la recherche clinique) Avoir des connaissances des bases de données (PostgreSQL, Oracle) et la maîtrise des langages de requêtes associées] Avoir des connaissances des nouvelles technologies dites « Big data » (Hadoop, Cluster de calculs, plateformes Big-Data, IA) Avoir des connaissances en droit des données informatiques et de la protection des données personnelles (RGPD, ...) Être à l’aise dans un environnement multi-métier et multi-technologiques]

Freelance
CDI

Offre d'emploi
Ingénieur Python API Kubernetes Cloud (école d'ingénieurs)

Digistrat consulting
Publiée le
API
Kubernetes
Python

3 ans
35k-50k €
Paris, France

Pour la mission suivante : Mise en œuvre d'une offre « Cluster Microsoft SQL AsAservice » sur le Cloud privé : - Développement d' API permettant à nos clients de créer en mode self service des clusters Microsoft SQL En tant que développeur d’ API, vous aurez pour missions principales de : • Contribuer aux actions d'automatisation et de fiabilisation ; • Mettre en place les bonnes pratiques en terme de développement de code. • Traiter tant les aspects techniques et fonctionnels et intervenir sur l’ensemble des environnements de l’intégration à la production

CDI

Offre d'emploi
Architecte Hadoop H/F

AMD Blue
Publiée le
Apache Hive
Cloudera
Hadoop

55k-66k €
Paris, France

Afin de renforcer ses équipes, notre client recherche un(e) architecte sur un environnement Hadoop / Big data de technologie Cloudera ; Et avec des compétences en développement autour des langages propres au domaine BigData, tels que Python, Spark, Hive, impala. Descriptif de la mission : Les missions sont : Ø Les missions porteront sur : o Pilotage et mise en œuvre opérationnelle des travaux de fiabilisation des socles Hadoop pour répondre aux exigences de performances attendues par les cas d'usages fonctionnels. Ø Evolution des architectures techniques : o Mise en place des principes directeurs sur l’utilisation du cluster Cloudera o Vérification de la bonne application des normes et des standards o Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster o Etude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop ; Ø Expertise Hadoop de niveau 3 o Configuration du cluster Cloudera en fonction des besoins identifiés o Optimisation des traitements ; Ø Support : o Accompagnement des équipes de développement o Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données o Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances Ø Savoir être : o Coordination et pilotage des chantiers en collaboration avec les différents services DSI o Autonomie pour la prise en charge des sujets et travail en équipe o Capacité à communiquer et s'adapter en fonction des différents interlocuteurs

CDI
Freelance

Offre d'emploi
Expertise Containers Docker / Kubernetes / Harbor Registry

Digistrat consulting
Publiée le
Docker
Kubernetes

3 ans
40k-92k €
Paris, France

La prestation consiste à/au(x) : - Développement et au maintien en condition opérationnelle des plateformes de containers orchestrés Kubernetes (Infra/cluster Docker Kubernetes) qui hébergent les applications - Développement et maintien en condition opérationnelle des infrastructures de la Registry d’images associées (Harbor) à la fois sur le cloud interne et les clouds publics (AWS et Azure) - L'identification et à la conduite de plans d'actions visant à assurer la maintenabilité, la résilience et la scalabilité des infrastructures - Support et à l'assistance aux utilisateurs dans l’utilisation du service - La mise en place du monitoring et alerting adéquats sur les plateformes infrastructures - Assurer les remontées nécessaires - La conduite du changement Environnement Anglophone Environnement Agile

Freelance
CDI

Offre d'emploi
DBA DB2 expérimenté

Deodis
Publiée le
Bash
IBM Db2
Linux

3 ans
40k-48k €
Montpellier, Occitanie

Au sein d’une équipe d’une entreprise bancaire, vous intervenez au sein du Chapitre « Expertise du Patrimoine » rattaché au Département « Expertise ». Ce Chapitre intervient en particulier sur tous les SGBD utilisés pour les solutions mises à disposition des Caisses Régionales. Vos fonctions principales sont les suivantes : Réaliser l'administration courante de l’ensemble des SGBD de technologies DB2 OPEN spécifiques aux applications BPCR en vue de garantir un taux de disponibilité des applications conforme aux attentes Faire le suivi des consommations et usages des plateformes SGBD, analyser, identifier et remonter tout changement de comportement. Maintien en condition opérationnelle des plateformes de Production, Homologation et Cycle Projet. Résoudre les incidents en lien avec les serveurs usages applicatifs. Apporter le support nécessaire aux tours applicatives. Maintenir à jour les documentations, les faire évoluer et les adapter aux changements (FCR ; Astreintes ; pilotages ; …) Accompagner les intervenants du cluster pour tous les sujets touchant aux SGBD DB2 OPEN (demandes, projets, exploitation, …) Automatiser les processus du périmètre (Run, Build) Participer aux astreintes pour une couverture du service 7j/7 et 24h/24 Vos principales missions associées sont les suivantes : Activités Projets Gérer les projets, suivre et mettre en œuvre les échanges avec la chefferie de projet métier et technique Mettre au point la documentation des processus de mise en œuvre, de mise à jour et d’exploitation des composants Participer aux mises en production des applications / déploiement des solutions Activités Fonctionnement Gérer des incidents et problèmes ; proposer et mettre en œuvre des plans d’actions dans le cadre de la gestion des problèmes Assurer une assistance technique, analyser l’état de santé, élaborer des enquêtes techniques et effectuer les diagnostics de perturbations Assurer le support du fonctionnement pour respecter les niveaux de service attendus de la Production concernant la disponibilité et les performances des applications. Apprécier les niveaux d’usage, de disponibilité et de performances des applications. Mettre en place les Tableau de bord de suivi. Suivre les obsolescences Anticipation des évolutions applicatives et techniques Maintenir et participer à des développements internes (industrialiser l'administration, automatiser les créations / décommissionnements, fiabiliser les interventions, …) Prendre en compte les évolutions de choix technologiques ; intégrer ces évolutions dans les pratiques et les outils internes de déploiement, de supervision, de diagnostic ou de métrologie L’environnement technique Connaissances : SGBD DB2 OPEN Systèmes d’exploitation Linux / Windows Développement (powershell, bash, python) Outils : Obsrvabilité Dynatrace , Supervision (Zabbix), Métrologie (Elisa, Grafana, ABSANA), Déploiement et d’automatisation (ACP, Ansible, XL Release,) Connaissance de l’anglais technique

Freelance

Mission freelance
Consultant HPC (High Performance computing) et Data engineering / Slurm

Freelance.com
Publiée le
Big Data
Linux

90 jours
260-1k €
Paris, France

Le client, acteur de l'énergie dans le domaine de la recherche et développement (R&D), souhaite renforcer son infrastructure de calcul haute performance pour répondre aux besoins de ses chercheurs. Le consultant interviendra pour administrer et optimiser un DGX (système spécialisé intégrant des GPU) en fournissant des services de gestion, de maintenance et de mise à jour. L’objectif est de garantir aux équipes de recherche un accès optimisé et performant à cette infrastructure critique. Administration et Gestion du DGX : Assurer la gestion quotidienne de l’infrastructure DGX, incluant la maintenance, les mises à jour, et l’optimisation de l’accessibilité pour les équipes R&D. Support HPC pour la Recherche : Apporter un support technique aux chercheurs dans l’utilisation et l’optimisation de ressources HPC, incluant le déploiement de workflows adaptés aux calculs intensifs. Gestion des ressources avec Slurm : Utiliser Slurm pour la gestion de files d’attente, l’ordonnancement et l’allocation de ressources afin de maximiser l’efficacité du cluster HPC. Data Engineering et Intégration de Données : Apporter une expertise en data engineering pour la préparation, l'intégration, et le traitement des données issues des simulations et calculs. HPC (High Performance Computing) : Expérience significative en administration et optimisation d’infrastructures HPC, idéalement avec du matériel DGX ou des systèmes intégrant des GPU. Data Engineering : Maîtrise des processus d’intégration, de transformation et d’analyse de données dans un environnement HPC. Outil de gestion de ressources : Maîtrise de Slurm , indispensable pour l’ordonnancement et la gestion des files d’attente. Langages de Programmation : Compétence en langages de scripting (ex. Python, Bash) et en langages utilisés dans le calcul scientifique et HPC. Systèmes d’Exploitation : Bonne connaissance de Linux, notamment pour l’administration de systèmes utilisés dans les environnements HPC. Mettre à disposition une infrastructure DGX performante et stable, adaptée aux besoins évolutifs de la R&D. Assurer une gestion efficace des ressources HPC via Slurm, permettant aux chercheurs d’optimiser leurs calculs et simulations. Garantir un support technique pour résoudre les problématiques liées au HPC et à la gestion des données R&D. Cette mission représente une collaboration technique et stratégique essentielle pour optimiser les capacités de calcul de l’infrastructure R&D du client.

Freelance

Mission freelance
Architecte NetDevOps

STHREE SAS pour HUXLEY
Publiée le

1 an
Meulan-en-Yvelines, Île-de-France

Fiche de poste Au sein du pôle infrastructure et production informatique du Groupe regroupant plus de 1600 collaborateurs, le client est à la recherche d' Ingénieur (e) / : Architecte (Net) DeVOps Contexte : Le socle Réseaux et Internet du Groupe opère l'ensemble des services de connectivité internes et externes, en datacenter et sur les sites utilisateurs, au bénéfice de toutes les entités du groupe Crédit Agricole. Les missions principales du Socle correspondent à la livraison du service, à l'émergence d'un cadre de cohérence technologique et à la prise en charge des évolutions technologiques. Au sein du socle, l'équipe Projets & Infras As Code gère le guichet projet Réseaux & Internet à l'attention de l'ensemble des Socles et Cluster. C'est aussi la software Fabric qui va rendre nos infrastructures programmables. Vous rejoindrez l'équipe Projet et Infra As Code. Ce pôle est composé d'une Squad de 10 personnes qui assure en collaboration avec l'ensemble des équipes du département réseaux et Sécurité les missions suivantes : * Développement des API d'automatisation des services Réseaux et Sécurité (Back) * Développement des portails d'accès interne et/ou client aux API (Front) * Réalisation des tests unitaires et d'intégration des API et portails * Mise en production des API et portails * Maintenance des API et portails Missions : Au titre d'ingénieur/architecte NetDevOps, vous aurez pour missions principales : * Contribuer aux actions d'automatisation et de fiabilisation ; * Opérer les revues de code ; * Opérer la veille technologique ; * Réaliser des présentations techniques ; * Traiter tant les aspects techniques et fonctionnels et intervenir sur l'ensemble des environnements de l'intégration à la production y compris dans le cadre de projets. * Accompagnement de l'équipe dans le déploiement et la gestion d'une plateforme d'automatisation pour les réseaux et la sécurité au sein d'une infrastructure Openshift. * Contribution à l'élaboration de solutions d'automatisation en lien avec les réseaux et la sécurité. * Collaboration étroite avec les équipes de développement pour intégrer les meilleures pratiques NetDevOps.

CDI
Freelance

Offre d'emploi
Développeur Infra (pas data !) Python - Kubernetes H/F

ISE SYSTEMS
Publiée le
API
Kubernetes
Python

3 ans
10k-50k €
Paris, France

Mise en œuvre d'une offre « Cluster Microsoft SQL AsAservice » sur le Cloud privé : - Développement d' API permettant à nos clients de créer en mode self service des clusters Microsoft SQL En tant que développeur d’ API, vous aurez pour missions principales de : • Contribuer aux actions d'automatisation et de fiabilisation ; • Mettre en place les bonnes pratiques en terme de développement de code. • Traiter tant les aspects techniques et fonctionnels et intervenir sur l’ensemble des environnements de l’intégration à la production

CDI

Offre d'emploi
DBA SQL server en Pré-Embauche - Démarrage ASAP

KUBE Partners S.L. / Pixie Services
Publiée le
Microsoft SQL Server
SQL

10k-71k €
Puteaux, Île-de-France

Offre Freelance : DBA en Pré-Embauche (6 mois puis CDI client final ) 📍 La Défense (92) : Démarrage ASAP Responsabilités : Définir les normes et standards d'utilisation et d'exploitation des systèmes de gestion de bases de données Préconiser les bonnes pratiques aux équipes de développement et de production Mesurer et contrôler les performances des bases de données Installer et configurer les serveurs SQL (simple, en cluster, etc.) Assurer le suivi de la capacité et de la disponibilité des BDD Développer, optimiser et personnaliser les procédures stockées Optimiser les performances des bases de données (index, réplications, etc.) Maintenir les bases de données en production et assurer leur stabilité Optimiser les plans de maintenance et gérer les sauvegardes Résoudre les incidents liés aux bases de données Produire de la documentation technique et proposer des solutions d'évaluation (migration, upgrade, nouveaux environnements) Compétences : Expertise en administration de bases de données SQL Server Expérience significative en gestion de 300 BDD Maîtrise des concepts d'optimisation de BDD (index, réplications) Rigueur, méthode et travail en équipe Forte culture digitale et environnement agile Profil recherché : Diplôme Bac+5 en informatique Expérience solide en administration de bases de données Aisance relationnelle et capacité à travailler en transversalité Si intéressé(e), envoyez votre CV et disponibilités.

44 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous