Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Développeur full stack API
POSTE ET MISSIONS Développeur full stack pour intervenir sur différentes applications autour de la DSP2 et basées sur des APIs. Les développements devront être réalisés dans le respect des bonnes pratiques de développement et des règles de sécurité. Vous intégrerez une Squad qui fonctionne en mode agile. Expertises spécifiques : MUST HAVE : NOTRE STACK Java, React, Spring Boot, APIs NICE TO HAVE Connaissances fonctionnelles des paiements Description : • Réaliser les API donnant accès aux services internes en respectant les exigences de performance et de sécurité • Définir les nouvelles APIs en collaboration avec les équipes métiers et d’architecture • Développer et maintenir les APIs (basé sur les techno type Java, Maven, RAML, Anypoint) • Créer les tests unitaires / intégrations associés à chaque API • Déployer les APIs sur les différents environnements
Mission freelance
Développeur .Net sénior
📅 Démarrage : ASAP 🏁 Durée : 6 mois renouvelable 📍 Localisation : Bordeaux - 2 jours de présentiel/semaine En tant que Développeur .NET Senior, vous travaillerez sur des projets complexes en collaboration avec l'équipe technique de mon client. Vous participerez activement à la conception et au développement de leurs applications en veillant à la performance, la robustesse et la scalabilité. 🔹 Compétences requises : - Maîtrise de .NET Core 6.0+ (idéalement en version 8.0) - Expérience solide en SQL Server (si vous privilégiez Entity Framework à d’autres usages SQL, ce poste pourrait ne pas correspondre à vos attentes) - Développement de Web API REST full orienté resources - Excellente compréhension des best practices (SOLID, etc.) - Docker / Container / DevContainer - Tests automatisés avec X-Unit et Mock - Gestion de versions avec Git 🔹 Compétences appréciées : - Connaissance de l’architecture hexagonale - Expérience avec Swagger / OpenAPI - Connaissance de l’écosystème AWS (SNS/SQS) - AsyncAPI, Terraform, et Polly
Offre d'emploi
INGENIEUR OPS RUN; CI/CD AWS/Azure; ITSM; Confluence
Assurer le lien avec entre la prod et les DevOps des projets et CDP Gérer toutes les phases de la mise en production des applications : Utiliser et Maintenir le Delivry de l’infrastructure cloud (services IaaS (Infrastructure As A Service), PaaS, ...) des projets via Terraform Configurer les composants applicatifs / services dans les environnements de production Utiliser les outils de livraisons continues du groupe (usine logicielle PIC/PDC) pour le déploiement des feautures en production Garantir le bon fonctionnement des applications en production et leurs évolutions. Gérer la disponibilité, de la sécurité et de l’évolution du socle avec selon les préconisations du schéma directeur et des architectes Mettre en œuvre les procédures d’exploitation (sauvegarde, automatisations, etc.) Etablir les documents techniques (contribution au DAT (Dossier d'Architecture Technique) / DEX) Superviser les applications avec l’outil de monitoring Groupe DATADOG (assurer l’analyse et la résolution des incidents, établir les rapports d’incidents, mise en place de nouvelles sondes au besoin) ;
Offre d'emploi
Développeur JAVA H/F
Au sein de la Direction des Systèmes d'Informations et rattaché(e) au Responsable Production et Architecture, vous serez intégré(e) à une feature team agile mêlant profils techniques et fonctionnels et vous participerez à l'ensemble du cycle de développement de la conception au suivi de la production. Votre mission si vous l'acceptez : Implémenter, tester et livrer les API Back-end Java Effectuer le monitoring des API Rédiger les spécifications techniques Documenter les API Développer et maintenir ces API de manière fonctionnelle Garantir la qualité du code, des tests unitaires et d'intégrations Vous l'aurez compris, vous travaillerez essentiellement sur les APIs Java !
Offre d'emploi
Devops SAP COmmerce Cloud
Bonjour, Nous recherchons pour un pote à pourvoir ASAP pour notre client banque basé en région parisienne (92) un Profil Devops SAP Commerce Cloud. En tant que DevOps, vous travaillerez en étroite collaboration avec les équipes OPS, DEV, QA et Release Management. Vous intégrerez une équipe dynamique et expérimentée, où vous contribuerez à la gestion, à l'amélioration continue et à l’évolution d'une plateforme e-commerce SAP Commerce Cloud en lien avec des solutions partenaires. Vous aurez l'opportunité d'évoluer dans un environnement technique diversifié propice à l'initiative et à l’évolution. De formation supérieure en informatique, vous justifiez déjà d'une solide expérience sur un poste similaire de DevOps SAP d’au minimum 6 ans. Vos missions • Maintenir en condition opérationnelle les infrastructures virtualisées SAP (Hébergement PaaS sur Azure) en diagnostiquant les pannes et les dysfonctionnements • Industrialiser les architectures cibles et automatiser la configuration des ressources techniques (CI / CD) • Implémenter et administrer les outils de supervision pour garantir la haute disponibilité des infrastructures • Participer à la modernisation et à l'amélioration continue de la plateforme e-commerce • Veiller à la sauvegarde des données, à la sécurité des accès et à la fiabilité des solutions déployées • Participer aux phases de validation technique lors des mises en production ou des évolutions Compétences requises : • Maitrise de SAP CCV2 (SAP Commerce Cloud) • Maitrise du monitoring et logging (outils intégrés à SAP : Dynatrace et Opensearch + outils Prometheus et Grafana) • Maitrise outils CI/CD (Gitlab CI, Jenkins, ArgoCD) • Maitrise de Docker pour créer, gérer et déployer des conteneurs • Maitrise en automatisation (Ansible) et en gestion des configurations IaC (Terraform, Terragrunt) • Maitrise des architectures microservices et de leur gestion • Compétences en scripting (groovy, ImpEx, python…) • De bonnes connaissance réseaux Compétences fortement appréciées : • Cloud GCP: Kubernetes, Cronjob, GCS • Bases de données : PostgreSQL, Couchbase • Outillage qualité et sécurité de code (Sonarqube, checkmarx) • Automatisation de test Disponibilité de la plateforme 24/7 pouvant nécessiter des astreintes techniques en rotation avec les équipes. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Mission freelance
DevOps
Nous sommes à la recherche d'un consultant DEVOPS pour un de nos clients. Dans le cadre de l'évolution de son système d'information, une entreprise du secteur des assurances recherche un consultant en DevOPS, afin d'intervenir au sein de l'une de ses équipes techniques. L'objectif est de contribuer à la mise en place et à la gestion d'une infrastructure moderne, ainsi qu'à l'automatisation des processus IT. Prestations attendues : Mise en place et gestion d'une infrastructure conteneurisée. Automatisation de l'infrastructure et gestion des environnements. Documentation technique et transfert de connaissances auprès des équipes internes.
Mission freelance
DevOps senior (H/F)
Cet expert n'est pas un utilisateur d'outil CI/CD mais un administrateur de ceux-ci, il a donc une expérience significative dans l'installation, la configuration et la maintenance de ces outils pour le compte de ses clients qui viennent consommer l'outillage. Ses clients sont majoritairement des ingénieurs Devops. Les principales missions sont : - Maintenir en condition opérationnelle la plateforme d'intégration continue utilisée par la DSI - Accompagner les utilisateurs dans la consommation des services de l'équipe: github, argocd, AWX, sonarqube, nexus, backstage - Définir les règles de bonnes pratiques, les pipeline standards - Développer sur backstage les composants en mode self service pour nos utilisateurs: terraform, python, bash - Contribuer à la transformation digitale en promouvant les services de l'équipe et notamment en développant l'offre Platform Engineering
Offre d'emploi
Architecte Data Engineer AWS
Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.
Mission freelance
GCP DevOps Engineer/ Ingénieur
Architecturer, déployer et gérer une infrastructure cloud évolutive et fiable en utilisant les services GCP tels que Compute Engine, Cloud Storage, Kubernetes Engine (GKE), BigQuery, et d'autres. Concevoir et mettre en œuvre l'infrastructure en tant que code (IaC) en utilisant des outils tels que Terraform, Cloud Deployment Manager ou Ansible pour automatiser le provisionnement et la configuration. Développer, maintenir et améliorer les pipelines CI/CD en utilisant des outils tels que Jenkins, GitLab CI, ou Cloud Build pour la livraison automatisée d'applications
Mission freelance
DEVOPS / CLOUD
Vous intégrerez une équipe de passionnés d'architecture Cloud et participerez pleinement à faire évoluer un environnement technique très varié et up to date à travers les missions suivantes : ● Concevoir une roadmap ambitieuse en prenant en compte les besoins des développeurs et du produit. ● Étude et mise en place des outils de productivité à destination des développeurs. (Portail développeur, catalogue de service, infrastructure self-service, outils de CI/CD…) ● Force de proposition sur les méthodologies et bonnes pratiques en termes de déploiement continue. ● Concevoir des architectures scalables et performantes sur le cloud (principalement AWS ) ● Travailler en étroite collaboration avec l’équipe d’infrastructure. ● Veille technologique dans le domaine du DevOps. Le candidat doit analyser les tendances et les perspectives d’évolution éventuelles dans le cadre d’eTF1. ● Sensibilisation des développeurs aux problématiques opérationnelles: performances, haute disponibilité, supervision et sécurité Notre stack : AWS (Principaux services): EKS, EC2, Route53, Cloudfront, S3, DynamoDB, Elasticsearch, MSK, Elasticache, Mediapackage, CloudWatch, SNS. OnPrem : FW, Routeur, SW, VMware, SAN/NAS, Haproxy, Nginx CI/CD : Github Actions, ArgoCD, Argo Workflows Monitoring : Prometheus, Grafana, Pagerduty, Datadog, Vector Kubernetes : Keda, Karpenter, External-secret, kube-prometheus-stack, external-dns Expérience significative à un poste similaire: orienté accompagnement et expérience développeur. ● Bonnes connaissance des processus CI/CD ● Une expérience sur l’écosystème Kubernetes (k8s) dans un environnement de production ● Une expérience significative dans l’environnement et la mise en place de solutions AWS ● Utilisation d’outils d’IAC (Helm, Terraform, Packer, Ansible…) ● Être familier avec les problématiques de HA et les architectures distribuées à forte charge. ● Expérience significative sur au moins un des langages suivant : Bash, Python, Golang
Offre d'emploi
Cloud Architect (DataOPS/MLOPS)
Dans le cadre de son désir de développer de nouveaux cas d'usage de l'IA dans le cloud, le DataLab Group souhaite exploiter toute la puissance du cloud pour tirer parti des capacités des modèles d'IA propriétaires et open-source. Objectif : - Aborder les sujets liés à l'IA générative en lien avec les offres AWS (Bedrock, SageMaker, etc.), en mettant l'accent sur les concepts clés (LLM, RAG) et les défis actuels tels que la scalabilité, les coûts et les optimisations ; - Superviser l'intégration fluide de ces modèles d'IA avancés dans notre infrastructure cloud ; - Optimiser l'utilisation des ressources, l'assurance de l'évolutivité et la promotion de la collaboration entre les équipes de développement et d'exploitation. Responsabilités : - Accompagner l'équipe technique dans les meilleures pratiques de développement et d'intégration continue ; - Collaboration avec les parties prenantes : Établir et maintenir des canaux de communication efficaces avec divers acteurs, y compris les dirigeants, les clients et les équipes internes ; - Mise en place d'une architecture permettant le déploiement continu de modèles d'apprentissage automatique ; - Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques DevOps dans le cycle de développement ; - Créer des POC (Proof of Concept) de tests d'intégration dans Kubernetes, démontrant le potentiel des pipelines de déploiement automatisés et efficaces ; - Concevoir l'architecture des composants AWS responsables du stockage et de l'intégration des données ; - Gérer et maintenir l'infrastructure as code, en utilisant des outils tels que Docker, Kubernetes et Terraform ; - Optimiser les flux de travail existants en identifiant les goulets d'étranglement et en proposant des solutions d'amélioration ; - Surveiller les performances du système, l'efficacité des processus et la disponibilité des services en implémentant des métriques et des outils de monitoring.
Offre d'emploi
ingénieur DevOps cloud expérimenté Google Cloud Platform et Azure
Dans le cadre du développement vers le cloud public de notre client, nous sommes à la recherche d'un ingénieur cloud expérimenté sur Google Cloud Platform et Azure. Le but de cette mission sera d'implémenter, sur la base de scripts terraform, les architectures techniques définies par nos architectes, participer à la gestion du catalogue de service et suivre le backlog des tickets affectés au centre d'excellence cloud. La mission s'oriente autour de 3 axes : Suivi des tickets Gestion du catalogue de service Création/maintenance de modules terraform / pipeline CI/CD dans le cadre de nos déploiements "Infrastructure as Code" ou du déploiement d'applications Le premier use-case défini est la mise en place automatisée du provisionning de VM dans le Cloud au sein de notre Catalogue de Services BUILD Pilote les demandes et la réalisation sur le périmètre technique Propose des évolutions sur les outils Gestion du backlog interne qui recense les évolutions à venir Promotion/explication/accompagnement sur les différents services du catalogue vis-à-vis des différents interlocuteurs de la DSI Accompagnement des projets (chefs de projets, développeurs, partenaires etc.) sur l'utilisation des modules existants ou la définition du besoin pour la modification/création de nouveaux modules RUN Collabore au point production quotidien Assurer un suivi quotidien des incidents, tâches et changes affectés au centre d'excellence (suivi, affectation, réalisation, mise à jour du statut quotidien, routage etc.) Réaliser un reporting hebdomadaire de l'activité Travaille avec les équipes Architectures et opérateurs de services managés pour mettre en œuvre les mises à jour, les correctifs ou le dépannage nécessaires à la résolution des problèmes sur la chaine CI/CD Participe à l'analyse et à la résolution des incidents et des problèmes du périmètre technique Déploiement d'infrastructures sur GCP et Azure sur la base des architectures définies par nos équipes Scripting terraform pour le déploiement ou la mise à jour des plateformes Intégration des scripts de déploiement de l'infra as code dans notre Gitlab CI Documentation (Low Level Design) des plateformes déployées Mise à jour des tickets (incidents, tâches et changes) Objectifs de la mission et tâches Mettre en place les bonnes pratiques d’exploitation avec notre opérateur de Service managés Apporter l’expertise sur les outils d’exploitation (CI/CD, Terraform, Monitoring, …) Plateformes déployées et opérationnelles Production de la documentation d'implémentation et d'exploitation Automatiser partout ou c’est possible
Offre d'emploi
QA Automatisation Back end confirmé - Aix en Provence H/F
Nous recrutons un Ingénieur automatisation Back end ( F/H) pour renforcer nos équipes d’experts en test à proximité d’ Aix -en- Provence. Réalisation de l’automatisation des tests d’applications dans un SI complexe Participation à la rédaction des Users Stories Rédiger les plans de test Préparer les jeux de données SQL Définition du processus de mise en œuvre de l'automatisation des tests Rédiger les scripts d'automatisation des tests à partir des spécifications Exécuter les cas de tests Backend : tests API, tests de bases de données… Participer à l’automatisation des tests d’indexation et des tests de facturation (Exécution batch en serveur + Vérifications en base de données), Mettre à jour les tests automatisés Rédiger les rapports de tests Télétravail Hybride = 3 jours de présentiel - 2 jours de remote – 1er mois intégration en présentiel –
Offre d'emploi
Intégrateur applicatif DevOps (H/F)
Vous souhaitez intégrer des projets ambitieux ? Nous vous proposons une opportunité de Ingénieur DevOps (H/F) . 🚀 Parlons de votre mission Au sein de Synchrone, société de conseil leader de la transformation digitale, vous êtes en charge de contribuer à la mise en place et l’optimisation de la chaîne d’automatisation au sein d’un projet . Grâce à des compétences éprouvées en environnement DevOps , vous : Intervenir à toutes les étapes du projet, de définition des besoins à la mise en production ; Garantir le bon fonctionnement et tenir compte des retours des utilisateurs pour réaliser les améliorations et évolutions techniques nécessaires ; Mettre en place une veille technologique et être force de proposition sur les différents projets initiés ; Continuellement améliorer les pratiques d’Intégration Continue / Livraison Continue (CI/CD) ; Contribuer à l’évolution d’une communauté d’experts déjà existante.
Mission freelance
Consultant DevOps
Technologies : AMQ, KAFKA, APIGEE, BUCKET GCP, Scripts, code Terraform pour CI/CD, Procédures, Scripting (Shell, Python), Git, Argo, Kubernetes, Ansible Descriptif de la prestation : Participer au sein de l'équipe Plateforme Échanges en tant que DevOps dans un contexte Agile (Agile Master + Product Owner) sur des évolutions spécifiques des plateformes d'échanges AMQ, KAFKA, APIGEE et BUCKET GCP. Améliorer l'industrialisation, la sécurisation, la résilience et la supervision des plateformes d'échanges : AMQ, KAFKA, APIGEE, Bucket GCP et SFTP. Travailler sur la résilience d'APIGEE et KAFKA, ainsi que sur l'accompagnement auprès des équipes produits vers la fin d'usage d'AMQ. Mise en place du portail APIGEE Integrated Portal. - Cloud Provider Public (idéalement GCP) - Scripting (Shell, Python) - Terraform, Git, Argo, Kubernetes, Ansible, scripts, code Terraform pour CI/CD, procédures
Offre d'emploi
Ingénieur Support F/H
Envie d’allier la technique au relationnel ? Sens du service et satisfaction client te définissent ? Pilotage, coordination et gestion sont tes maîtres mots ? Si tu réponds OUI à ces 3 questions, c’est que tu es fait(e) pour nous rejoindre ! Ta mission , si tu l’acceptes, sera d’intégrer notre Direction des systèmes d’information au sein de la Team SI interne afin d’assurer le support technique de niveau 1 et 2 pour nos produits et services. Ton quotidien sera rythmé par : Le support technique de niveau 1 et 2 pour nos produits et services internes Le pilotage de la mise en service des logiciels et leur bonne intégration dans l’écosystème informatique Le diagnostic et la résolution des incidents techniques signalés par les clients internes La collaboration avec les équipes internes pour améliorer les produits et services La rédaction des documentations techniques et des guides utilisateurs L’élaboration des procédures et la mise en place des outils pour les activités à déléguer au N1 La tenue d’une base de connaissance recensant les plans d’investigation et de résolution La garantie d’un haut niveau de qualité de service La formation des utilisateurs finaux sur les nouvelles fonctionnalités et mises à jour Des déplacements réguliers sont à prévoir sur notre site de Buc (78). Permis obligatoire- être véhiculé(e) ou motorisé(e) est un vrai plus.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.