Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Devops Engineer
Pour l'un de nos clients finaux, nous sommes à la recherche d'un Devops Engineer. Location: Paris ou Lyon(hybrid) Compétences requises Pratiques de gestion des incidents et des changements et gestion des incidents à fort impact Conception et gestion de systèmes de fusion et de promotion des versions de code ainsi que des flux de travail CICD Architecture de conteneurs et systèmes tels que Docker ainsi que des outils d’orchestration de conteneurs tels que Kubernetes Langages et frameworks comme JavaSpringSpring Boot Exploitation et soutien de microservices axés sur les événements et d’architectures distribuées Administration et prise en charge de bases de données SQL et NoSQL comme MongoDB Elasticsearch DynamoDB MySQL PostgreSQL Infrastructures basées sur Linux Obtention et installation des certificats SSL Surveillance et support des API RESTful Gestion de la configuration CICD tools GIT Jenkins Chef ELK Outils d’automatisation tels que Terraform et AWS CloudFormation Outils de surveillance tels que Graphite Grafana Prometheus DataDog Services AWS PaaS EC2 S3 RDS VPC.
Offre d'emploi
Cloud Architect (DataOPS/MLOPS)
Dans le cadre de son désir de développer de nouveaux cas d'usage de l'IA dans le cloud, le DataLab Group souhaite exploiter toute la puissance du cloud pour tirer parti des capacités des modèles d'IA propriétaires et open-source. Objectif : - Aborder les sujets liés à l'IA générative en lien avec les offres AWS (Bedrock, SageMaker, etc.), en mettant l'accent sur les concepts clés (LLM, RAG) et les défis actuels tels que la scalabilité, les coûts et les optimisations ; - Superviser l'intégration fluide de ces modèles d'IA avancés dans notre infrastructure cloud ; - Optimiser l'utilisation des ressources, l'assurance de l'évolutivité et la promotion de la collaboration entre les équipes de développement et d'exploitation. Responsabilités : - Accompagner l'équipe technique dans les meilleures pratiques de développement et d'intégration continue ; - Collaboration avec les parties prenantes : Établir et maintenir des canaux de communication efficaces avec divers acteurs, y compris les dirigeants, les clients et les équipes internes ; - Mise en place d'une architecture permettant le déploiement continu de modèles d'apprentissage automatique ; - Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques DevOps dans le cycle de développement ; - Créer des POC (Proof of Concept) de tests d'intégration dans Kubernetes, démontrant le potentiel des pipelines de déploiement automatisés et efficaces ; - Concevoir l'architecture des composants AWS responsables du stockage et de l'intégration des données ; - Gérer et maintenir l'infrastructure as code, en utilisant des outils tels que Docker, Kubernetes et Terraform ; - Optimiser les flux de travail existants en identifiant les goulets d'étranglement et en proposant des solutions d'amélioration ; - Surveiller les performances du système, l'efficacité des processus et la disponibilité des services en implémentant des métriques et des outils de monitoring.
Offre d'emploi
Data Engineer intégration et aws
Missions / Tâches : Vous intégrerez l’équipe IT Data Integration, qui a pour responsabilité l’intégration des données (ainsi que les flux retours) en provenance d'un partenaire (qui opère le système bancaire en marque blanche pour le compte du client final) vers notre Data Platform sur le cloud AWS. Vous aurez à travailler sur le « run » (suivi de production et gestion des défauts sur les données reçues/envoyées) : - Jobs AWS Glue (Spark serverless sur AWS) - Lambda Functions AWS - DAG Airflow - PYSpark - Flux de fichiers CFT/SFTP - Reporting PowerBI ainsi que sur les nouveaux projets : - Data Privacy : purge de données, mise en conformité RGPD. - Data Quality : mise en place de traitements (DBT) pour détecter les données non conformes et consolider des KPI permettant de gérer la qualité des données. - API Management (Gravitee) finalisation d’un Proof of Value et accompagnement au deploiement des nouvelles API / miration des API existantes vers cet outil. Administration de l’outil en lui-même (K8S, helm, AWS). Formation & Expérience Requises : Vous justifiez d'une expérience de plus de 5 ans dans le domaine de la data et/ou des solutions cloud AWS (idéalement orientées Data ou API Management). Vous savez travailler en équipe et en mode agile (Scrum) et vous vous appuyez sur des compétences solides en git et gitlab-ci pour mettre en commun votre code, participer aux revues de l’equipe, déployer les nouvelles versions jusqu’en production. Vous êtes passionné(e)s de nouvelles technologies et vous souhaitez développer vos compétences. Formation : A partir de Bac+4, tête bien faite, envie d’apprendre et de relever des défis Anglais : Professionnel
Mission freelance
SOC Analyst – Expert Splunk
En tant qu’ expert Splunk , vous interviendrez dans la gestion des alertes et l’ analyse des incidents en temps réel. Vous participerez également à la mise en place de dashboards avancés et de règles de corrélation personnalisées pour améliorer la visibilité des incidents et optimiser la détection des cyberattaques. Vous jouerez un rôle clé dans l’ amélioration continue des processus SOC et la gestion des incidents critiques, tout en collaborant étroitement avec les équipes de sécurité. Vos Missions : Surveillance des menaces avec Splunk : Analyser en temps réel les logs et événements pour détecter les comportements suspects et les attaques. Création de dashboards et alertes : Développer des dashboards personnalisés et des règles de corrélation dans Splunk pour améliorer la détection des incidents. Gestion des incidents : Réagir rapidement aux alertes, enquêter sur les incidents et proposer des actions correctives immédiates . Optimisation des processus : Affiner les règles de détection, réduire les faux positifs et collaborer avec les équipes pour améliorer la sécurité globale. Veille et amélioration continue : Suivre les nouvelles menaces et ajuster les configurations Splunk pour anticiper les attaques émergentes.
Mission freelance
Expert Ingenieur Cloud FinOps
Bonjour, je recherche un expert cloud Fin Ops pour venir accompagner mon client dans la stratégie de la réduction des couts cloud public AWS AZURE GCP, tout en maintenant les performances Il faudra participer au cadrage du besoin client et réaliser les ateliers Faire les soutenances et proposition commerciale Les taches afférentes : - Accompagner les architectes SI pour l'estimation des coûts des solutions envisagées, - Maintenir et optimiser le fonctionnement des outils de suivi des coûts Cloud (de la collecte des données FinOps jusqu'à la production des tableaux de bord financiers) - Audit d'optimisation de facture, analyse les données financières, identifier les opportunités d'économies - Implémentation d'optimisation - Formation - Déployer des outils de "reporting" - Développer des scripts de contrôle des couts, Automatiser - Animation de COPIL
Mission freelance
Lead DevOps AWS + Paris+ H/F
Profil recherché : Nous recherchons un Lead DevOps AWS avec une expérience comprise entre 8 et 15 ans, ayant une solide expertise en infrastructures Cloud AWS et une capacité démontrée à diriger des équipes techniques. Le candidat idéal possède des compétences en Terraform pour l'infrastructure as code, ainsi qu'une expérience avérée en leadership et en coaching afin de transmettre son savoir-faire et d'organiser le travail des équipes. Un diplôme en informatique ou dans un domaine connexe est requis (niveau Bac+5 ou équivalent). Compétences ( Techniques et fonctionnelles) : Techniques : Expertise en AWS (gestion des services Cloud, IAM, EC2, S3, RDS, etc.) Maîtrise de Terraform pour l'automatisation et la gestion des infrastructures Connaissance approfondie des pipelines CI/CD Bonnes pratiques en sécurité Cloud (IAM, KMS) Expérience en Docker, Kubernetes pour la conteneurisation et l'orchestration Expérience avec les outils de monitoring (ex: Prometheus, Grafana) Fonctionnelles : Leadership et capacité à coacher des équipes techniques Bonne maîtrise des méthodologies Agile/Scrum Forte sensibilité à l'importance des livrables et des délais Capacité à communiquer efficacement avec les équipes et les parties prenantes Aptitude à organiser et prioriser les tâches de manière efficace
Mission freelance
Consultant (H/F/Y) Architecte Cybersécurité IAM&Pam
Nous recherchons un expert en IAM (Identity Access Management) et PAM (Privileged Access Management) pour accompagner un projet de transformation stratégique. Votre mission inclura la conception, l'architecture et l'ingénierie des solutions IAM et PAM, avec une expertise requise sur CyberArk. Vous participerez à l'évaluation des besoins fonctionnels et techniques, l'audit de l'existant, et la proposition de solutions innovantes dans un environnement hybride Cloud/on-prem. Vous garantirez le maintien en condition opérationnelle des systèmes de gestion d'identités, en assurant leur sécurité et leur conformité aux standards. Vous travaillerez en collaboration avec des équipes IT Security & Risk pour assurer la simplification, rationalisation et homogénéisation des processus.
Mission freelance
Consultant IAM Workplace (H/F)
Pour l'un de nos clients grand compte situé en Ile-de-France, dans le cadre d'une mission de longue durée permettant du télétravail, nous recherchons un Consultant IAM Workplace (H/F). Missions principales : - Steer the implementation of continuous remediation and improvement plans - Build the security of the Digital Workplace services especially on Identity topics and Email systems - Support local security officers on Infrastructure & Datacenter security topics. - Define & communicate Workplace security policies/standards and ensure their understanding - Build & animate the Group Infrastructure & Datacenter security chapter/community - Steer Cybersecurity Projects on Digital Workplace, in coordination with Group Digital & IT teams - Support Digital Workplace teams on the implementation of security into project and risk management - Raising the overall security level of infrastructure & datacenter stakeholders through awareness and trainings - Define security by design solutions and controls for Digital Workplace standards - Contribute to implement security governance on Digital Workplace perimeter (including committees and Dashboards); - Security Watch on vulnerability and trends regarding Digital Workplace technologies. - Support security operation for Digital Workplace services & platforms - Steer the security control plan & periodical reporting - Ensure Cybersecurity incidents management on his/her perimeter and contribute to resolution on major incidents or crisis - Define & implement Digital Workplace security strategy based on risks, threat landscape, technology evolution and group IT strategy - Support Continuous Security Improvement of Digital Workplace services especially on Identity topics and Email systems - Ensure the management of security into RUN activities (IAM, vulnerability, exception, flow opening, etc.) Profil recherché : - Expérience confirmée en IAM - Compétences requises sur : O365, Azure AD - SMTP Security (SPF, DKIM, DMARC) - Le consultant devra posséder une solide compréhension des analyses de risques ainsi que des fondamentaux de la cybersécurité. - Anglais courant - Active Directory : un atout
Offre d'emploi
Chef de projet SI Senior / +12 ans d'exp
💡 Contexte /Objectifs : Objectif global : Piloter les projets de l'environnement de travail du collaborateur Contrainte forte du projet Maitrise dans le pilotage de projet et capacité de s'adaptation Les livrables sont Cadrage, support de présentation et de réunion, CR Mise en place de la gouvernance Reporting Compétences techniques Env. collab : poste travail, messagerie, M365... - Confirmé Connaissance infra, réseau - Confirmé Notion AD, IAM - Confirmé Sécu : https, sso... - Confirmé Connaissances linguistiques Français Courant Anglais Courant
Offre d'emploi
Ingénieur SysOps AWS
Contexte de la mission : La prestation d’expertise Cloud Public intègrera la DevTeam AWS de la Squad Cloud Public du client et prendra en charge des features Build dans le backlog qui pourront être soit orientées métier soit orientées infra et participera aussi aux actions liées au Run. Tâches à réaliser : · Développer, maintenir en conditions opérationnelles et faire évoluer le code IAC de l’application métier · Mettre en place les pipelines DevOps afin d’automatiser les déploiements sur l’ensemble des environnements AWS · Assurer la généricité de ces pipelines · Réaliser les phases de spécifications techniques détaillées, les maquettes de validation, les procédures d’installation et d’exploitation des solutions · Garantir la sécurité ressources cloud en respectant les règles RSIS et les bonnes pratiques en matière de développement · Contribuer à faire évoluer l’infrastructure avec veille régulière des menaces et en implémentant et améliorant les règles de détections · Garantir la cohérence de l’architecture mise en place en collaboration avec les architectes Cloud · Ouvrir et suivre des incidents chez l’infogérant Cloud Public en cohérence avec les processus ITIL du client
Offre d'emploi
Analyste SOC H/F
Nous recherchons un(e) analyste SOC pour le compte de l’un de nos clients. Gérer les règles de détection Splunk : Mise en place, optimisation, et gestion des règles de détection dans Splunk afin d’identifier efficacement les menaces et comportements anormaux sur le réseau. Intégration des alertes SIEM Splunk vers TRAP : Configurer et automatiser l'envoi des alertes de sécurité issues de Splunk vers TRAP de Proofpoint, garantissant une surveillance continue des menaces et une gestion efficace des alertes. Analyse et triage des incidents de sécurité : Diagnostiquer les incidents de sécurité, apporter une réponse initiale, et escalader les incidents plus complexes à l'équipe SOC. Surveillance continue : Assurer le bon fonctionnement et la disponibilité des outils de sécurité, incluant les systèmes de détection d'intrusion et les dispositifs de monitoring. Coordination et collaboration : Collaborer étroitement avec les équipes internes de la DSI ainsi qu'avec les prestataires externes pour garantir une résolution rapide et efficace des incidents. Reporting et documentation : Rédiger des rapports réguliers sur les incidents détectés, les mesures prises et proposer des améliorations aux processus existants. Outils, Avantages & Perspectives Localisation du poste : Boulogne-Billancourt ( 92) Date de démarrage : le plus tôt possible Durée : Mission longue Rémunération : package global +/- 45 K selon profil (Politique d’intéressement en place depuis 2015)
Offre d'emploi
DevOps (H/F) – Domaine de l’environnement - Toulouse
Nous poursuivons notre développement et recherchons actuellement un Ingénieur DevOps (H/F) pour intervenir sur un projet de développement de solutions logicielles pour la gestion de la chaîne d'approvisionnement et des opérations industrielles à Toulouse 📍 Voici un aperçu détaillé de vos missions 🎯 : Mettre en place les tests d'intégration de la chaine complète Mettre en place l'intégration continue sous GitHub Rédiger les documents de déploiement automatiques sur AWS (compartiments S3, PostgreSQL managé et cluster K8s) Rédiger la configuration des ressources du cluster Kubernetes Configurer les workflows Argo pour l'orchestration de la chaine Mettre en place le déploiement continue sur AWS Mettre en place le monitoring de la chaine de traitement, du cluster et des ressources AWS Mettre en place le backup des données S3 et base de données Aider à la mise en place du rejeu et du retraitement Participer au développement de briques de la chaine de traitement en Python et à la mise en place de tests unitaires (export de données...). Améliorer le modèle de données et les briques de traitement En ce qui concerne la stack technique, vous aurez l'occasion de travailler avec les technologies suivantes : Python, Poetry, Pytest Docker, Kubernetes, Argo Workflow CI/CD avec Github Actions, ArgoCD Stockage S3, Postresql AWS avec service S3, EKS, RDS "Infrastructure as Code" avec Terraform Monitoring avec Prometheus et Grafana
Offre d'emploi
Architecte Data Engineer AWS
Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.
Offre d'emploi
INGENIEUR OPS RUN; CI/CD AWS/Azure; ITSM; Confluence
Assurer le lien avec entre la prod et les DevOps des projets et CDP Gérer toutes les phases de la mise en production des applications : Utiliser et Maintenir le Delivry de l’infrastructure cloud (services IaaS (Infrastructure As A Service), PaaS, ...) des projets via Terraform Configurer les composants applicatifs / services dans les environnements de production Utiliser les outils de livraisons continues du groupe (usine logicielle PIC/PDC) pour le déploiement des feautures en production Garantir le bon fonctionnement des applications en production et leurs évolutions. Gérer la disponibilité, de la sécurité et de l’évolution du socle avec selon les préconisations du schéma directeur et des architectes Mettre en œuvre les procédures d’exploitation (sauvegarde, automatisations, etc.) Etablir les documents techniques (contribution au DAT (Dossier d'Architecture Technique) / DEX) Superviser les applications avec l’outil de monitoring Groupe DATADOG (assurer l’analyse et la résolution des incidents, établir les rapports d’incidents, mise en place de nouvelles sondes au besoin) ;
Offre d'emploi
Développeur Python React AWS
L'équipe supervise la maintenance et l'évolution des nombreux systèmes de trading qui permettent de participer à toutes sortes d'activités de marché. Les applications logicielles permettent d'effectuer au jour le jour les opérations nécessaires à la bonne gestion de ses activités. L'objectif du service est d'intégrer une personne supplémentaire à l'équipe chargée de gérer le backlog des applications en rédigeant, en suivant et en testant les User Story et en définissant les priorités. Les applications sont toutes développées en interne et écrites en Python en utilisant Redis, Celery, Flask et FlaskAdmin, SQL-Alchemy, PostgreSQL, Pandas, Timescale DB, React et elles sont hébergées sur AWS.
Mission freelance
Système engineer Linux
Tâches principales : • Aider les Designer Technique dans la réalisation de designs d’infrastructure afin de garantir la cohérence entre l’ensemble des systèmes. • Assurer la mise en place des modifications liées aux infrastructures. • Réalisation et exécution de scripts de déploiement. • Installation et configuration des systèmes. • Monitoring et finetuning des systèmes • Assurer la mise en place des backups et des restaurations des systèmes. • Introduire et suivre les demandes, via la 3ème ligne de support, des incidents et problèmes avec les fournisseurs de services d’infrastructures et de système d’information ORES et collaborer avec ceux-ci. • Analyser les incidents récurrents et proposer des solutions ou remonter le problème vers le Service Manager. • Assurer le suivi des mises à jour et patch de sécurité sur les systèmes. Collaboration avec l'Exploitation responsable du release management. • Réalisation et suivi de la documentation opérationnelle et techniques des systèmes. • Production de KPI : Performance, disponibilité et qualité. • Rationalisation et mutualisation des systèmes en vue de garantir la bonne maîtrise des coûts • Participation aux gardes et interventions en dehors des heures ouvrables.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.