Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Devops Engineer
Pour l'un de nos clients finaux, nous sommes à la recherche d'un Devops Engineer. Location: Paris ou Lyon(hybrid) Compétences requises Pratiques de gestion des incidents et des changements et gestion des incidents à fort impact Conception et gestion de systèmes de fusion et de promotion des versions de code ainsi que des flux de travail CICD Architecture de conteneurs et systèmes tels que Docker ainsi que des outils d’orchestration de conteneurs tels que Kubernetes Langages et frameworks comme JavaSpringSpring Boot Exploitation et soutien de microservices axés sur les événements et d’architectures distribuées Administration et prise en charge de bases de données SQL et NoSQL comme MongoDB Elasticsearch DynamoDB MySQL PostgreSQL Infrastructures basées sur Linux Obtention et installation des certificats SSL Surveillance et support des API RESTful Gestion de la configuration CICD tools GIT Jenkins Chef ELK Outils d’automatisation tels que Terraform et AWS CloudFormation Outils de surveillance tels que Graphite Grafana Prometheus DataDog Services AWS PaaS EC2 S3 RDS VPC.
Mission freelance
FINOPS MANAGER
Nous recherchons un manager FinOps expérimenté pour diriger le développement et la mise en œuvre d'un modèle opérationnel et de gouvernance des opérations financières (FinOps) complet pour notre environnement multicloud, qui comprend AWS, GCP et Azure. L’intervenant sera chargé d'établir les meilleures pratiques, d'optimiser les coûts du cloud et d'assurer la responsabilité financière dans l'ensemble de notre infrastructure cloud. Cette mission requiert une compréhension approfondie de la gestion financière du cloud, d'excellentes compétences analytiques et la capacité de travailler en collaboration avec des équipes inter fonctionnelles.
Mission freelance
Ingénieur Devops
Dans le cadre de projets stratégiques avec notre client, nous recherchons un Ingénieur Devops orienté IA et Cloud public. Le collaborateur sera rattaché à uneéquipe et intégrera la tribu en charge du périmètre DATA, en proximité des squads Assurances. Il interviendra sur l’ensemble du cycle de vie (design, build, run) des projets orientés IA. Missions : En tant qu'Equipier Ops, les principales missions seront les suivantes : Identifier les évolutions fonctionnelles et techniques des produits nécessitant des activités ops et les traduire dans le backlog en tant que « récits techniques ops » Provisionner les moyens techniques d’infrastructure dans tous les environnements Intégrer les produits dans les plateformes client, AWS et GCP (IaC, supervision/monitoring, backups, archives, log management) Fabriquer des composants techniques (scripts d'industrialisation, de déploiements, templates d’infra as code…) et automatiser les opérations en exploitant les services MLOPS Mettre en place les indicateurs d’observabilité infrastructure et applicative, du monitoring des modèles et s’assurer de l’intégration des exigences de production dans les applications livrées - Mettre à disposition une chaine d'entrainement et d’exécution des modèles Prendre en main des outils de DataOps et MLOps pour industrialiser des modèles de ML et d’IA. - Contribuer et maintenir les référentiels et consignes d’exploitabilité - Réaliser les actes de MEP Suivre les SLAs des produits, contrôler le bon fonctionnement de la production et assurer le reporting Anticiper, traiter et suivre les incidents d’exploitation en analysant les causes racines et en prenant les mesures correctives nécessaires Suivre les consommations et allocations des ressources Normalisation des éléments produits - Sécurisation by design et revue périodiques Maintien des capacités dans le temps - Capacité à identifier les opportunités et limites de l’open source vs des services managés Capacité à fédérer autour des choix préconisés Localisation du poste : Paris Expériences réussies dans le cadre de l’ingénierie DevOps/MLOps sur AWS avec une expertise sur Terraform . 5-7 ans d’expérience Environnements techniques : - AWS, (GCP) - Sagemaker (studio, notebook instance), KubeFlow, TensorFlow, Pytorch - Notebook, Python - Terraform (environnement Air Gap notamment), rebase - Artifactory, ECR, Helm - EKS, Kubernetes , Docker , ArgoCD - Jenkins - Grafana, CloudWatch, ELK, OpenSearch
Offre d'emploi
Expert Cloud (H/F)
Nous recherchons un Expert Cloud avec une expérience approfondie dans les environnements AWS, GCP et Azure pour intégrer notre équipe. Vous jouerez un rôle clé dans la conception, le déploiement, et la gestion de solutions cloud à grande échelle. Votre expertise dans ces trois principales plateformes de cloud computing sera essentielle pour guider les choix technologiques de nos clients et assurer une transition fluide vers le cloud. Responsabilités : - Concevoir et mettre en place des architectures cloud sécurisées, évolutives et performantes sur AWS, GCP, et Azure. - Superviser la migration d'infrastructures traditionnelles vers le cloud, tout en garantissant la continuité de service. - Automatiser et optimiser les processus de déploiement, de gestion des configurations et de surveillance sur différentes plateformes cloud. - Assurer la sécurité et la conformité des systèmes cloud en accord avec les meilleures pratiques. - Gérer et résoudre les incidents liés aux environnements cloud en collaboration avec les équipes d'ingénierie. - Fournir un soutien technique avancé et former les équipes internes aux bonnes pratiques d'utilisation des solutions cloud. - Élaborer des stratégies multicloud pour optimiser l'utilisation des différentes plateformes en fonction des besoins spécifiques des projets. - Participer aux audits de performance et de sécurité des infrastructures cloud.
Offre d'emploi
Cloud Architect (DataOPS/MLOPS)
Dans le cadre de son désir de développer de nouveaux cas d'usage de l'IA dans le cloud, le DataLab Group souhaite exploiter toute la puissance du cloud pour tirer parti des capacités des modèles d'IA propriétaires et open-source. Objectif : - Aborder les sujets liés à l'IA générative en lien avec les offres AWS (Bedrock, SageMaker, etc.), en mettant l'accent sur les concepts clés (LLM, RAG) et les défis actuels tels que la scalabilité, les coûts et les optimisations ; - Superviser l'intégration fluide de ces modèles d'IA avancés dans notre infrastructure cloud ; - Optimiser l'utilisation des ressources, l'assurance de l'évolutivité et la promotion de la collaboration entre les équipes de développement et d'exploitation. Responsabilités : - Accompagner l'équipe technique dans les meilleures pratiques de développement et d'intégration continue ; - Collaboration avec les parties prenantes : Établir et maintenir des canaux de communication efficaces avec divers acteurs, y compris les dirigeants, les clients et les équipes internes ; - Mise en place d'une architecture permettant le déploiement continu de modèles d'apprentissage automatique ; - Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques DevOps dans le cycle de développement ; - Créer des POC (Proof of Concept) de tests d'intégration dans Kubernetes, démontrant le potentiel des pipelines de déploiement automatisés et efficaces ; - Concevoir l'architecture des composants AWS responsables du stockage et de l'intégration des données ; - Gérer et maintenir l'infrastructure as code, en utilisant des outils tels que Docker, Kubernetes et Terraform ; - Optimiser les flux de travail existants en identifiant les goulets d'étranglement et en proposant des solutions d'amélioration ; - Surveiller les performances du système, l'efficacité des processus et la disponibilité des services en implémentant des métriques et des outils de monitoring.
Offre d'emploi
Data Engineer intégration et aws
Missions / Tâches : Vous intégrerez l’équipe IT Data Integration, qui a pour responsabilité l’intégration des données (ainsi que les flux retours) en provenance d'un partenaire (qui opère le système bancaire en marque blanche pour le compte du client final) vers notre Data Platform sur le cloud AWS. Vous aurez à travailler sur le « run » (suivi de production et gestion des défauts sur les données reçues/envoyées) : - Jobs AWS Glue (Spark serverless sur AWS) - Lambda Functions AWS - DAG Airflow - PYSpark - Flux de fichiers CFT/SFTP - Reporting PowerBI ainsi que sur les nouveaux projets : - Data Privacy : purge de données, mise en conformité RGPD. - Data Quality : mise en place de traitements (DBT) pour détecter les données non conformes et consolider des KPI permettant de gérer la qualité des données. - API Management (Gravitee) finalisation d’un Proof of Value et accompagnement au deploiement des nouvelles API / miration des API existantes vers cet outil. Administration de l’outil en lui-même (K8S, helm, AWS). Formation & Expérience Requises : Vous justifiez d'une expérience de plus de 5 ans dans le domaine de la data et/ou des solutions cloud AWS (idéalement orientées Data ou API Management). Vous savez travailler en équipe et en mode agile (Scrum) et vous vous appuyez sur des compétences solides en git et gitlab-ci pour mettre en commun votre code, participer aux revues de l’equipe, déployer les nouvelles versions jusqu’en production. Vous êtes passionné(e)s de nouvelles technologies et vous souhaitez développer vos compétences. Formation : A partir de Bac+4, tête bien faite, envie d’apprendre et de relever des défis Anglais : Professionnel
Mission freelance
Lead DevOps AWS + Paris+ H/F
Profil recherché : Nous recherchons un Lead DevOps AWS avec une expérience comprise entre 8 et 15 ans, ayant une solide expertise en infrastructures Cloud AWS et une capacité démontrée à diriger des équipes techniques. Le candidat idéal possède des compétences en Terraform pour l'infrastructure as code, ainsi qu'une expérience avérée en leadership et en coaching afin de transmettre son savoir-faire et d'organiser le travail des équipes. Un diplôme en informatique ou dans un domaine connexe est requis (niveau Bac+5 ou équivalent). Compétences ( Techniques et fonctionnelles) : Techniques : Expertise en AWS (gestion des services Cloud, IAM, EC2, S3, RDS, etc.) Maîtrise de Terraform pour l'automatisation et la gestion des infrastructures Connaissance approfondie des pipelines CI/CD Bonnes pratiques en sécurité Cloud (IAM, KMS) Expérience en Docker, Kubernetes pour la conteneurisation et l'orchestration Expérience avec les outils de monitoring (ex: Prometheus, Grafana) Fonctionnelles : Leadership et capacité à coacher des équipes techniques Bonne maîtrise des méthodologies Agile/Scrum Forte sensibilité à l'importance des livrables et des délais Capacité à communiquer efficacement avec les équipes et les parties prenantes Aptitude à organiser et prioriser les tâches de manière efficace
Mission freelance
Expert Ingenieur Cloud FinOps
Bonjour, je recherche un expert cloud Fin Ops pour venir accompagner mon client dans la stratégie de la réduction des couts cloud public AWS AZURE GCP, tout en maintenant les performances Il faudra participer au cadrage du besoin client et réaliser les ateliers Faire les soutenances et proposition commerciale Les taches afférentes : - Accompagner les architectes SI pour l'estimation des coûts des solutions envisagées, - Maintenir et optimiser le fonctionnement des outils de suivi des coûts Cloud (de la collecte des données FinOps jusqu'à la production des tableaux de bord financiers) - Audit d'optimisation de facture, analyse les données financières, identifier les opportunités d'économies - Implémentation d'optimisation - Formation - Déployer des outils de "reporting" - Développer des scripts de contrôle des couts, Automatiser - Animation de COPIL
Offre d'emploi
Intégrateur applicatif DevOps (H/F)
Vous souhaitez intégrer des projets ambitieux ? Nous vous proposons une opportunité de Ingénieur DevOps (H/F) . 🚀 Parlons de votre mission Au sein de Synchrone, société de conseil leader de la transformation digitale, vous êtes en charge de contribuer à la mise en place et l’optimisation de la chaîne d’automatisation au sein d’un projet . Grâce à des compétences éprouvées en environnement DevOps , vous : Intervenir à toutes les étapes du projet, de définition des besoins à la mise en production ; Garantir le bon fonctionnement et tenir compte des retours des utilisateurs pour réaliser les améliorations et évolutions techniques nécessaires ; Mettre en place une veille technologique et être force de proposition sur les différents projets initiés ; Continuellement améliorer les pratiques d’Intégration Continue / Livraison Continue (CI/CD) ; Contribuer à l’évolution d’une communauté d’experts déjà existante.
Offre d'emploi
Architecte Data Engineer AWS
Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.
Offre d'emploi
Ingénieur SysOps AWS
Contexte de la mission : La prestation d’expertise Cloud Public intègrera la DevTeam AWS de la Squad Cloud Public du client et prendra en charge des features Build dans le backlog qui pourront être soit orientées métier soit orientées infra et participera aussi aux actions liées au Run. Tâches à réaliser : · Développer, maintenir en conditions opérationnelles et faire évoluer le code IAC de l’application métier · Mettre en place les pipelines DevOps afin d’automatiser les déploiements sur l’ensemble des environnements AWS · Assurer la généricité de ces pipelines · Réaliser les phases de spécifications techniques détaillées, les maquettes de validation, les procédures d’installation et d’exploitation des solutions · Garantir la sécurité ressources cloud en respectant les règles RSIS et les bonnes pratiques en matière de développement · Contribuer à faire évoluer l’infrastructure avec veille régulière des menaces et en implémentant et améliorant les règles de détections · Garantir la cohérence de l’architecture mise en place en collaboration avec les architectes Cloud · Ouvrir et suivre des incidents chez l’infogérant Cloud Public en cohérence avec les processus ITIL du client
Mission freelance
MLOPS ENGINEER (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un MLOPS ENGINEER (H/F) à Mérignac, Nouvelle-Aquitaine, France. Contexte : Fonctionnement : 2 jours présence à Mérignac + 3 jours télétravail Les missions attendues par le MLOPS ENGINEER (H/F) : Intégré à une équipe Produit, le MLOPs Engineer contribue à l'industrialisation de modèles ML déjà développés. En plus de construire et de gérer des pipelines de données automatisés, il participe aussi au développement d'outils pour monitorer les performances des modèles tout en garantissant la mise en place de bonnes pratiques en matière de sécurité et d'efficacité opérationnelle. RÔLE ET RESPONSABILITÉS Implémenter les pipelines automatisés pour le déploiement et la surveillance des modèles (Gestion des alertes) Optimiser l'efficacité et la scalabilité des flux de travail ML Configurer/Déployer/Automatiser/industrialiser le déploiement de modèles ML Garant de l'implémentation de bonnes pratiques en matière de sécurité et de confidentialité des données En fonction du niveau d'expertise, accompagner à la mise en place de nouveaux outils d'IA Force de proposition dans la résolution des problèmes PROFIL TYPE Maîtrise des technologies AWS et outils MLOPS (Kubernetess, TensorFlow, Jenkins, Pytorch, Terraform, Sagemaker, Cloudwatch, Prometheus, Alertmanager, Grafana) Compétences solides en programmation Python Comprendre le machine learning Force de proposition dans la résolution des problèmes de code. Pro-actif, Esprit d'équipe, sens du délai, de la qualité et des résultats CERTIFICATIONS Certification AWS Machine Learning specialty (a minima)
Mission freelance
DevSecOps (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un DevSecOps (H/F) à Mérignac, Nouvelle-Aquitaine, France. Contexte : Fonctionnement : sur site 2 jours à Mérignac + 3 jours télétravail Les missions attendues par le DevSecOps (H/F) : Descriptif de la mission : Projet : Intégré à l'équipe Produit, le DevSecOps permet à son équipe de livrer plus facilement et rapidement. Il met en place et maintient des outils et services liés à l'automatisation, au monitoring et au respect des normes de sécurité des applications. Il s'assure de respecter les exigences et d'utiliser les services mis à disposition par l'Usine de Delivery des Produits Numériques et l'équipe plateforme. Descriptif de la mission : Mettre en place et maintenir des pipelines CI/CD pour automatiser le processus d'intégration, de test et de déploiement. S'assurer que le code est continuellement testé, intégré et déployé de manière automatisée. Intégrer des outils d'analyse de sécurité du code dans les pipelines CI/CD Mettre en place des solutions d'analyse de logs et de surveillance des applications pour les environnements de production et hors production Travailler en étroite collaboration avec les équipes de développement, d'exploitation et de sécurité Sensibiliser les développeurs de l'équipe à la mise en œuvre de M'infrastructure as Code afin de les rendre autonomes pour réaliser les changements les plus fréquents Surveiller la consommation des services Cloud utilisé par le produit afin de détecter rapidement toute dérive, et proposer des améliorations en continu pour optimiser les coûts et les impacts environnementaux Remonter les nouveaux besoins et les améliorations à l'Usine de Delivery des Produits Numériques Maitrise des outils liés au C/CD: Gitlab Cl, Sonar Qube, Checkmarx,.... Maitrise de l'ecosystème conteneur Des connaissances en observabilité Prometheus, Grafana, ELK,.) Familier avec l'approche GitOps Sensible aux problématiques de sécurité Esprit de service
Mission freelance
Longue Mission - Développeur Node Angular
Nous vous proposons aujourd'hui une mission longue au sein d'un groupe de renommée internationale, acteur majeur de son secteur d'activité. La mission sera à 80% sur du NodeJS (Nest) nous cherchons donc un profil avec une grosse prédominance Node. Vous interviendrez sur des sujets très orientés back : Récupération de data dans kafka Écriture/lecture bdd postgre Développements d’API Rest (websocket) Déploiement bucket S3 sur AWS Test unitaires obligatoires, la qualité du code est une priorité. Stack technique : nodeJS, nest, angular, mongo, postgre, kafka, bucket S3,
Mission freelance
Ingénieur.e Infra Cloud (AWS) & Réseaux F/H
METSYS est un intégrateur de solutions Microsoft, Cloud & Cybersécurité. Nous recherchons pour l'un de nos clients grands-comptes dans le secteur des transports un.e Ingénieur.e Infra, Cloud (AWS) et Réseaux (F/H) pour un démarrage imminent à Paris, dans le 12ème arrondissement. Les missions consisteront principalement à maintenir, à surveiller et à améliorer l’infrastructure actuelle. Elles porteront également sur le design, la gestion et le maintien en condition opérationnel des infrastructures dans le cloud et de la partie réseau : Mise en place et déploiement d’environnements sur AWS ; Conception d’architecture technique pour les nouveaux projets ; Administration du parc de serveurs Linux et Windows Server hébergé sur AWS ; Automatisation des processus et amélioration continue ; Assurer l’expertise et maintenir en condition opérationnel la stack réseau AWS ; Administration des équipements réseaux et de sécurité (Fortigate, Meraki, etc…) ; Administration de la plateforme Zéro Trust Zscaler ; Intégration et administration des cluster Kubernetes (AWS EKS) ; Assurer la coordination entre les équipes infrastructure et DevOPS ; Être garant de la sécurité sur le périmètre cloud AWS (DevSecOPS) ; Mettre en place des métriques pour surveiller l’infrastructure ; Créer et optimiser les chaines de déploiement continues ; Assurer le support aux équipes de développements et business.
Mission freelance
System Architect - Lead Cloud Transformation - Remote - 6 Months
Principales responsabilités : • Diriger l'ART (Agile Release Train) : superviser le processus de bout en bout de la migration DIGIT services d'hébergement cloud au sein du Scaled Agile Framework (SAFe). • Architecture et stratégie cloud : développer et mettre en œuvre une feuille de route d'architecture cloud qui prend en charge les besoins de l'entreprise, en mettant l'accent sur l'évolutivité, la sécurité et les performances. • Conception et mise en œuvre : Concevoir des architectures cloud de haut niveau (AWS, Azure, GCP, etc.) et superviser leur intégration avec les services existants. Assurez-vous que les décisions architecturales sont aligné sur les meilleures pratiques pour les services cloud natifs. • Collaboration : travailler en étroite collaboration avec les équipes Agile, les chefs de produit et les propriétaires d'entreprise pour décomposer le travail d'architecture en fonctionnalités exécutables et en histoires dans PI (Program Planification incrémentale. • Amélioration continue : Favoriser les améliorations continues de la stratégie et de l'exécution du cloud en évaluant les technologies émergentes, les meilleures pratiques et les outils de gestion du cloud. • Conformité et sécurité : Assurez-vous que les environnements cloud sont conformes, sécurisés et normes de gouvernance. • Mentorat et leadership : fournir des conseils architecturaux et un leadership pour le développement équipes, en veillant à ce que la conception et la mise en œuvre des services cloud soient conformes aux stratégie globale de transformation du cloud. • Communication avec les parties prenantes : dialoguer avec les principales parties prenantes, en fournissant des éclaircissements communication sur l'avancement de la transformation du cloud et sur la manière dont l'architecture soutient des objectifs organisationnels plus larges.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.