Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Mission freelance
DataOps Engineer / SRE Big Data (H/F)
Dans le cadre du renforcement du support de production, nous recherchons pour intervenir auprès de notre client, un profil hybride Data & SRE, spécialisé dans l'exploitation de plateformes Big Data en environnement conteneurisé. Vous interviendrez dans une équipe en charge du maintien en condition opérationnelle de plusieurs services stratégiques. Missions principales: Support de niveau 2 en production sur les plateformes Big Data (Spark, Airflow, Starburst) Gestion des incidents, analyse des causes racines, résolution Optimisation des traitements Spark sur Kubernetes (tuning, dimensionnement, gestion ressources) Amélioration de l'orchestration Airflow, gestion des catalogues Starburst Support aux équipes métiers pour l'usage sécurisé des plateformes Contribution à la documentation d'exploitation et de diagnostic Participation à l'amélioration continue des outils de supervision et d'automatisation Vous êtes titulaire d'un diplôme Bac+5 en informatique (Master) ou justifiez d'une expérience équivalente. Vous avez au minimum 5 ans d'expériences dont une expérience significative en support de production Big Data. Vous êtes à l'aise avec les outils et environnements suivants: Systèmes & Observabilité : Kubernetes, Helm, Dynatrace, Grafana, Kibana Traitements distribués : Spark (tuning, profiling), Airflow, Starburst DevOps / CI-CD : Git, Jenkins, GitLab CI, scripting (Python, Bash, Ansible) Sécurité / Secrets management : Hashicorp Vault, PKI Autres informations: Vous interviendrez dans un contexte international la maitrise l'anglais est indispenable Télétravail: poste ouvert avec 2 jours de télétravail par semaine

Mission freelance
DataOps Platform Engineer
Notre client recherche un DataOps expérimenté pour concevoir, déployer et maintenir l’infrastructure data sur AWS, automatiser les déploiements et garantir la performance, la sécurité et l’optimisation des flux de données. Ce rôle s’inscrit dans un programme stratégique de transformation data visant à déployer des architectures avancées pour supporter des cas d’usage variés tels que l’IA, la personnalisation de contenus et le partage de données partenaires. Environnement technique : Cloud & Infrastructure : AWS (S3, Kinesis, DMS, ECS, Lambda, IAM, VPC, CloudWatch), Linux, Docker, shell scripting Outils & Orchestration : Terraform, GitLab CI/CD, Datadog, PagerDuty Big Data & Analytics : Snowflake, Spark, Dataiku, Python, Power BI Volumes traités : ingestion de +100 To/jour, architectures event-driven et streaming Missions Déployer et maintenir l’infrastructure data sur AWS via Terraform . Mettre en place et optimiser les pipelines GitLab CI/CD . Gérer la sécurité, le monitoring, la journalisation et l’alerting des composants cloud. Assurer le suivi de la consommation et de la performance des ressources AWS. Produire et maintenir la documentation technique et les référentiels. Mettre en place des pratiques FinOps pour optimiser les coûts cloud. Contribuer à la convergence des données et au bon fonctionnement des plateformes data.

Mission freelance
DevOps – Microsoft Fabric / Azure
Dans un environnement en pleine transformation digitale, vous rejoindrez une équipe dédiée à la construction, à l’exploitation et à l’évolution d’une plateforme Data & Analytics à grande échelle. Cette plateforme constitue un socle stratégique pour la valorisation, la gouvernance et la sécurité des données au sein du groupe. Nous recherchons un(e) DataOps Engineer spécialisé(e) dans l’écosystème Microsoft (Azure / Fabric / Power BI) , capable d’accompagner les équipes dans la mise en place et l’industrialisation des solutions Data. ⚙️ Missions principales En tant que membre de la squad Data & Analytics Platform, vous participerez aux activités suivantes : Coordination & animation : Animer les ateliers techniques avec Microsoft et les parties prenantes internes. Rédiger les comptes rendus et assurer le suivi des actions. Challenger les propositions techniques de l’éditeur et garantir la cohérence des solutions. DataOps / DevOps : Concevoir, maintenir et améliorer les chaînes de déploiement CI/CD pour les composants Data & Analytics. Automatiser les processus de déploiement, de supervision et de gouvernance. Participer à la sécurisation et à la surveillance de la plateforme. Administration de la plateforme Microsoft Fabric : Gérer les rôles d’administration : Fabric Administrator, Capacity Administrator, Domain Administrator, Workspace Administrator. Assurer la gestion des droits , le suivi capacitaire et le pilotage budgétaire des ressources. Administrer le portail Power BI et accompagner les utilisateurs dans les bonnes pratiques. Documentation & accompagnement : Enrichir la documentation technique et fonctionnelle à destination des utilisateurs. Diffuser les bonnes pratiques DataOps au sein de l’équipe.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.