Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Développeur Fullstack C#/.Net, React, TypeScript – Secteur High Tech – Nice (H/F)
Au sein d'une entreprise ambitieuse opérant dans le secteur technologique et située près de Nice, nous travaillons à l'avant-garde du développement de solutions de multi-diffusions innovantes. Notre équipe de développement produit, actuellement composée d'experts chevronnés, porte des projets à la pointe de la technologie, visant à optimiser les interactions et les performances commerciales de nos utilisateurs à travers le monde. La nécessité de ce recrutement émane de la volonté d'étendre notre capacité à innover et à répondre encore plus efficacement aux besoins spécifiques de nos clients. Nous recherchons, par conséquent, un(e) Développeur Fullstack C# / React, TypeScript pour rejoindre notre équipe. Missions : Conception et développement de nouvelles fonctionnalités sur notre plateforme SaaS en utilisant C#/.Net pour le backend et React, TypeScript pour le frontend. Participer à l'amélioration continue de l'architecture SAAS de nos solutions. Assurer la maintenance et l'optimisation des applications existantes pour garantir leurs performances. Collaborer étroitement avec les équipes développement produit et design pour définir les meilleures pratiques et les standards de développement. Contribuer à l'élaboration de notre roadmap technique en proposant des innovations et des améliorations. Stack technique: Back : C#/.Net Front : React.JS, TypeScript BDD : AWS et MongoDB Environnement produit : Plateformes SAAS Solutions de paiement intégrées Diffusion multi-cannaux (sms, rcs, mail, callbot) Gestion de workflows
Mission freelance
Expert(e) Cloud (H/F) - NIORT
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un(e) Expert(e) Cloud (H/F) Objectifs et missions : Vous avez déjà gérer des incidents N3 dans le respect des SLA. Participation aux choix d'architecture. Acculturation et documentation. Automatisation des déploiements via CI/CD, Terraform, et Ansible. Vous avez une bonne maitrise de l'anglais Mission basée à : Niort, France Mission Hybride avec 2 jours de télétravail et 3 jours sur site Vous avez plusieurs années d’expérience sur un poste similaire à celui défini dans le descriptif.
Mission freelance
Devops Engineer
Pour l'un de nos clients finaux, nous sommes à la recherche d'un Devops Engineer. Location: Paris ou Lyon(hybrid) Compétences requises Pratiques de gestion des incidents et des changements et gestion des incidents à fort impact Conception et gestion de systèmes de fusion et de promotion des versions de code ainsi que des flux de travail CICD Architecture de conteneurs et systèmes tels que Docker ainsi que des outils d’orchestration de conteneurs tels que Kubernetes Langages et frameworks comme JavaSpringSpring Boot Exploitation et soutien de microservices axés sur les événements et d’architectures distribuées Administration et prise en charge de bases de données SQL et NoSQL comme MongoDB Elasticsearch DynamoDB MySQL PostgreSQL Infrastructures basées sur Linux Obtention et installation des certificats SSL Surveillance et support des API RESTful Gestion de la configuration CICD tools GIT Jenkins Chef ELK Outils d’automatisation tels que Terraform et AWS CloudFormation Outils de surveillance tels que Graphite Grafana Prometheus DataDog Services AWS PaaS EC2 S3 RDS VPC.
Mission freelance
Lead DevOps AWS + Paris+ H/F
Profil recherché : Nous recherchons un Lead DevOps AWS avec une expérience comprise entre 8 et 15 ans, ayant une solide expertise en infrastructures Cloud AWS et une capacité démontrée à diriger des équipes techniques. Le candidat idéal possède des compétences en Terraform pour l'infrastructure as code, ainsi qu'une expérience avérée en leadership et en coaching afin de transmettre son savoir-faire et d'organiser le travail des équipes. Un diplôme en informatique ou dans un domaine connexe est requis (niveau Bac+5 ou équivalent). Compétences ( Techniques et fonctionnelles) : Techniques : Expertise en AWS (gestion des services Cloud, IAM, EC2, S3, RDS, etc.) Maîtrise de Terraform pour l'automatisation et la gestion des infrastructures Connaissance approfondie des pipelines CI/CD Bonnes pratiques en sécurité Cloud (IAM, KMS) Expérience en Docker, Kubernetes pour la conteneurisation et l'orchestration Expérience avec les outils de monitoring (ex: Prometheus, Grafana) Fonctionnelles : Leadership et capacité à coacher des équipes techniques Bonne maîtrise des méthodologies Agile/Scrum Forte sensibilité à l'importance des livrables et des délais Capacité à communiquer efficacement avec les équipes et les parties prenantes Aptitude à organiser et prioriser les tâches de manière efficace
Offre d'emploi
Expert Cloud (H/F)
Nous recherchons un Expert Cloud avec une expérience approfondie dans les environnements AWS, GCP et Azure pour intégrer notre équipe. Vous jouerez un rôle clé dans la conception, le déploiement, et la gestion de solutions cloud à grande échelle. Votre expertise dans ces trois principales plateformes de cloud computing sera essentielle pour guider les choix technologiques de nos clients et assurer une transition fluide vers le cloud. Responsabilités : - Concevoir et mettre en place des architectures cloud sécurisées, évolutives et performantes sur AWS, GCP, et Azure. - Superviser la migration d'infrastructures traditionnelles vers le cloud, tout en garantissant la continuité de service. - Automatiser et optimiser les processus de déploiement, de gestion des configurations et de surveillance sur différentes plateformes cloud. - Assurer la sécurité et la conformité des systèmes cloud en accord avec les meilleures pratiques. - Gérer et résoudre les incidents liés aux environnements cloud en collaboration avec les équipes d'ingénierie. - Fournir un soutien technique avancé et former les équipes internes aux bonnes pratiques d'utilisation des solutions cloud. - Élaborer des stratégies multicloud pour optimiser l'utilisation des différentes plateformes en fonction des besoins spécifiques des projets. - Participer aux audits de performance et de sécurité des infrastructures cloud.
Offre d'emploi
Cloud Architect (DataOPS/MLOPS)
Dans le cadre de son désir de développer de nouveaux cas d'usage de l'IA dans le cloud, le DataLab Group souhaite exploiter toute la puissance du cloud pour tirer parti des capacités des modèles d'IA propriétaires et open-source. Objectif : - Aborder les sujets liés à l'IA générative en lien avec les offres AWS (Bedrock, SageMaker, etc.), en mettant l'accent sur les concepts clés (LLM, RAG) et les défis actuels tels que la scalabilité, les coûts et les optimisations ; - Superviser l'intégration fluide de ces modèles d'IA avancés dans notre infrastructure cloud ; - Optimiser l'utilisation des ressources, l'assurance de l'évolutivité et la promotion de la collaboration entre les équipes de développement et d'exploitation. Responsabilités : - Accompagner l'équipe technique dans les meilleures pratiques de développement et d'intégration continue ; - Collaboration avec les parties prenantes : Établir et maintenir des canaux de communication efficaces avec divers acteurs, y compris les dirigeants, les clients et les équipes internes ; - Mise en place d'une architecture permettant le déploiement continu de modèles d'apprentissage automatique ; - Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques DevOps dans le cycle de développement ; - Créer des POC (Proof of Concept) de tests d'intégration dans Kubernetes, démontrant le potentiel des pipelines de déploiement automatisés et efficaces ; - Concevoir l'architecture des composants AWS responsables du stockage et de l'intégration des données ; - Gérer et maintenir l'infrastructure as code, en utilisant des outils tels que Docker, Kubernetes et Terraform ; - Optimiser les flux de travail existants en identifiant les goulets d'étranglement et en proposant des solutions d'amélioration ; - Surveiller les performances du système, l'efficacité des processus et la disponibilité des services en implémentant des métriques et des outils de monitoring.
Offre d'emploi
Data Engineer intégration et aws
Missions / Tâches : Vous intégrerez l’équipe IT Data Integration, qui a pour responsabilité l’intégration des données (ainsi que les flux retours) en provenance d'un partenaire (qui opère le système bancaire en marque blanche pour le compte du client final) vers notre Data Platform sur le cloud AWS. Vous aurez à travailler sur le « run » (suivi de production et gestion des défauts sur les données reçues/envoyées) : - Jobs AWS Glue (Spark serverless sur AWS) - Lambda Functions AWS - DAG Airflow - PYSpark - Flux de fichiers CFT/SFTP - Reporting PowerBI ainsi que sur les nouveaux projets : - Data Privacy : purge de données, mise en conformité RGPD. - Data Quality : mise en place de traitements (DBT) pour détecter les données non conformes et consolider des KPI permettant de gérer la qualité des données. - API Management (Gravitee) finalisation d’un Proof of Value et accompagnement au deploiement des nouvelles API / miration des API existantes vers cet outil. Administration de l’outil en lui-même (K8S, helm, AWS). Formation & Expérience Requises : Vous justifiez d'une expérience de plus de 5 ans dans le domaine de la data et/ou des solutions cloud AWS (idéalement orientées Data ou API Management). Vous savez travailler en équipe et en mode agile (Scrum) et vous vous appuyez sur des compétences solides en git et gitlab-ci pour mettre en commun votre code, participer aux revues de l’equipe, déployer les nouvelles versions jusqu’en production. Vous êtes passionné(e)s de nouvelles technologies et vous souhaitez développer vos compétences. Formation : A partir de Bac+4, tête bien faite, envie d’apprendre et de relever des défis Anglais : Professionnel
Mission freelance
Expert Ingenieur Cloud FinOps
Bonjour, je recherche un expert cloud Fin Ops pour venir accompagner mon client dans la stratégie de la réduction des couts cloud public AWS AZURE GCP, tout en maintenant les performances Il faudra participer au cadrage du besoin client et réaliser les ateliers Faire les soutenances et proposition commerciale Les taches afférentes : - Accompagner les architectes SI pour l'estimation des coûts des solutions envisagées, - Maintenir et optimiser le fonctionnement des outils de suivi des coûts Cloud (de la collecte des données FinOps jusqu'à la production des tableaux de bord financiers) - Audit d'optimisation de facture, analyse les données financières, identifier les opportunités d'économies - Implémentation d'optimisation - Formation - Déployer des outils de "reporting" - Développer des scripts de contrôle des couts, Automatiser - Animation de COPIL
Offre d'emploi
Ingénieur SysOps AWS
Contexte de la mission : La prestation d’expertise Cloud Public intègrera la DevTeam AWS de la Squad Cloud Public du client et prendra en charge des features Build dans le backlog qui pourront être soit orientées métier soit orientées infra et participera aussi aux actions liées au Run. Tâches à réaliser : · Développer, maintenir en conditions opérationnelles et faire évoluer le code IAC de l’application métier · Mettre en place les pipelines DevOps afin d’automatiser les déploiements sur l’ensemble des environnements AWS · Assurer la généricité de ces pipelines · Réaliser les phases de spécifications techniques détaillées, les maquettes de validation, les procédures d’installation et d’exploitation des solutions · Garantir la sécurité ressources cloud en respectant les règles RSIS et les bonnes pratiques en matière de développement · Contribuer à faire évoluer l’infrastructure avec veille régulière des menaces et en implémentant et améliorant les règles de détections · Garantir la cohérence de l’architecture mise en place en collaboration avec les architectes Cloud · Ouvrir et suivre des incidents chez l’infogérant Cloud Public en cohérence avec les processus ITIL du client
Mission freelance
MLOPS ENGINEER (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un MLOPS ENGINEER (H/F) à Mérignac, Nouvelle-Aquitaine, France. Contexte : Fonctionnement : 2 jours présence à Mérignac + 3 jours télétravail Les missions attendues par le MLOPS ENGINEER (H/F) : Intégré à une équipe Produit, le MLOPs Engineer contribue à l'industrialisation de modèles ML déjà développés. En plus de construire et de gérer des pipelines de données automatisés, il participe aussi au développement d'outils pour monitorer les performances des modèles tout en garantissant la mise en place de bonnes pratiques en matière de sécurité et d'efficacité opérationnelle. RÔLE ET RESPONSABILITÉS Implémenter les pipelines automatisés pour le déploiement et la surveillance des modèles (Gestion des alertes) Optimiser l'efficacité et la scalabilité des flux de travail ML Configurer/Déployer/Automatiser/industrialiser le déploiement de modèles ML Garant de l'implémentation de bonnes pratiques en matière de sécurité et de confidentialité des données En fonction du niveau d'expertise, accompagner à la mise en place de nouveaux outils d'IA Force de proposition dans la résolution des problèmes PROFIL TYPE Maîtrise des technologies AWS et outils MLOPS (Kubernetess, TensorFlow, Jenkins, Pytorch, Terraform, Sagemaker, Cloudwatch, Prometheus, Alertmanager, Grafana) Compétences solides en programmation Python Comprendre le machine learning Force de proposition dans la résolution des problèmes de code. Pro-actif, Esprit d'équipe, sens du délai, de la qualité et des résultats CERTIFICATIONS Certification AWS Machine Learning specialty (a minima)
Offre d'emploi
Architecte Data Engineer AWS
Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.
Mission freelance
DevSecOps (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un DevSecOps (H/F) à Mérignac, Nouvelle-Aquitaine, France. Contexte : Fonctionnement : sur site 2 jours à Mérignac + 3 jours télétravail Les missions attendues par le DevSecOps (H/F) : Descriptif de la mission : Projet : Intégré à l'équipe Produit, le DevSecOps permet à son équipe de livrer plus facilement et rapidement. Il met en place et maintient des outils et services liés à l'automatisation, au monitoring et au respect des normes de sécurité des applications. Il s'assure de respecter les exigences et d'utiliser les services mis à disposition par l'Usine de Delivery des Produits Numériques et l'équipe plateforme. Descriptif de la mission : Mettre en place et maintenir des pipelines CI/CD pour automatiser le processus d'intégration, de test et de déploiement. S'assurer que le code est continuellement testé, intégré et déployé de manière automatisée. Intégrer des outils d'analyse de sécurité du code dans les pipelines CI/CD Mettre en place des solutions d'analyse de logs et de surveillance des applications pour les environnements de production et hors production Travailler en étroite collaboration avec les équipes de développement, d'exploitation et de sécurité Sensibiliser les développeurs de l'équipe à la mise en œuvre de M'infrastructure as Code afin de les rendre autonomes pour réaliser les changements les plus fréquents Surveiller la consommation des services Cloud utilisé par le produit afin de détecter rapidement toute dérive, et proposer des améliorations en continu pour optimiser les coûts et les impacts environnementaux Remonter les nouveaux besoins et les améliorations à l'Usine de Delivery des Produits Numériques Maitrise des outils liés au C/CD: Gitlab Cl, Sonar Qube, Checkmarx,.... Maitrise de l'ecosystème conteneur Des connaissances en observabilité Prometheus, Grafana, ELK,.) Familier avec l'approche GitOps Sensible aux problématiques de sécurité Esprit de service
Mission freelance
Longue Mission - Développeur Node Angular
Nous vous proposons aujourd'hui une mission longue au sein d'un groupe de renommée internationale, acteur majeur de son secteur d'activité. La mission sera à 80% sur du NodeJS (Nest) nous cherchons donc un profil avec une grosse prédominance Node. Vous interviendrez sur des sujets très orientés back : Récupération de data dans kafka Écriture/lecture bdd postgre Développements d’API Rest (websocket) Déploiement bucket S3 sur AWS Test unitaires obligatoires, la qualité du code est une priorité. Stack technique : nodeJS, nest, angular, mongo, postgre, kafka, bucket S3,
Mission freelance
DEVOPS / CLOUD
Vous intégrerez une équipe de passionnés d'architecture Cloud et participerez pleinement à faire évoluer un environnement technique très varié et up to date à travers les missions suivantes : ● Concevoir une roadmap ambitieuse en prenant en compte les besoins des développeurs et du produit. ● Étude et mise en place des outils de productivité à destination des développeurs. (Portail développeur, catalogue de service, infrastructure self-service, outils de CI/CD…) ● Force de proposition sur les méthodologies et bonnes pratiques en termes de déploiement continue. ● Concevoir des architectures scalables et performantes sur le cloud (principalement AWS ) ● Travailler en étroite collaboration avec l’équipe d’infrastructure. ● Veille technologique dans le domaine du DevOps. Le candidat doit analyser les tendances et les perspectives d’évolution éventuelles dans le cadre d’eTF1. ● Sensibilisation des développeurs aux problématiques opérationnelles: performances, haute disponibilité, supervision et sécurité Notre stack : AWS (Principaux services): EKS, EC2, Route53, Cloudfront, S3, DynamoDB, Elasticsearch, MSK, Elasticache, Mediapackage, CloudWatch, SNS. OnPrem : FW, Routeur, SW, VMware, SAN/NAS, Haproxy, Nginx CI/CD : Github Actions, ArgoCD, Argo Workflows Monitoring : Prometheus, Grafana, Pagerduty, Datadog, Vector Kubernetes : Keda, Karpenter, External-secret, kube-prometheus-stack, external-dns Expérience significative à un poste similaire: orienté accompagnement et expérience développeur. ● Bonnes connaissance des processus CI/CD ● Une expérience sur l’écosystème Kubernetes (k8s) dans un environnement de production ● Une expérience significative dans l’environnement et la mise en place de solutions AWS ● Utilisation d’outils d’IAC (Helm, Terraform, Packer, Ansible…) ● Être familier avec les problématiques de HA et les architectures distribuées à forte charge. ● Expérience significative sur au moins un des langages suivant : Bash, Python, Golang
Offre d'emploi
Site Reliability Engineer SRE Expérimenté
Rejoignez une équipe dynamique et participez activement à la fiabilisation et à la performance des infrastructures de nos projets. Vous aurez un rôle clé dans l'automatisation des processus de déploiement et de maintenance tout en garantissant la disponibilité et la résilience des systèmes de production. Vos missions principales : Assurer la disponibilité, la performance et la scalabilité des systèmes. Automatiser les processus de déploiement et les tests. Collaborer avec les équipes de développement pour intégrer des pratiques de fiabilité dès la conception. Optimiser les performances et gérer les incidents. Développer des outils pour améliorer l’efficacité des opérations.
Offre d'emploi
DevOps (H/F) – Domaine de l’environnement - Toulouse
Nous poursuivons notre développement et recherchons actuellement un Ingénieur DevOps (H/F) pour intervenir sur un projet de développement de solutions logicielles pour la gestion de la chaîne d'approvisionnement et des opérations industrielles à Toulouse 📍 Voici un aperçu détaillé de vos missions 🎯 : Mettre en place les tests d'intégration de la chaine complète Mettre en place l'intégration continue sous GitHub Rédiger les documents de déploiement automatiques sur AWS (compartiments S3, PostgreSQL managé et cluster K8s) Rédiger la configuration des ressources du cluster Kubernetes Configurer les workflows Argo pour l'orchestration de la chaine Mettre en place le déploiement continue sur AWS Mettre en place le monitoring de la chaine de traitement, du cluster et des ressources AWS Mettre en place le backup des données S3 et base de données Aider à la mise en place du rejeu et du retraitement Participer au développement de briques de la chaine de traitement en Python et à la mise en place de tests unitaires (export de données...). Améliorer le modèle de données et les briques de traitement En ce qui concerne la stack technique, vous aurez l'occasion de travailler avec les technologies suivantes : Python, Poetry, Pytest Docker, Kubernetes, Argo Workflow CI/CD avec Github Actions, ArgoCD Stockage S3, Postresql AWS avec service S3, EKS, RDS "Infrastructure as Code" avec Terraform Monitoring avec Prometheus et Grafana
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.