Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur DevOps
Au sein d'une grande banque française basée à paris, vous rejoindrez une équipe DevOps. En tant qu'ingénieur DevOps vous contribuerez à la configuration et à l'outillage des chaînes CI/CD et assiterez les entités de développement dans la gestion des différents environnements (développement, test, UAT, intégration, production). L'entité évolue sur des environnements on premise avec des requêtes de déploiement sur cloud AWS. Dans ce cadre la prestation consiste à contribuer à : La mise en place des chaines CI/CD on prem La mise en place et la maintenance des outils (Jenkins, Sonar...) Déploiment de VM dans le cloud on prem Mise en place du Monitoring automatique (elasticsearch , kibana,..) Mise en place des alerts sur l'infra et sur l'indisponibilité des services/composants Monitoring de production L'installation et à la configuration Kubernetes et Docker La création et à la maintenance des différents environnement techniques avec les entités de développement Support aux entités de développement dans leur utilisation de ces différents environnements L'intégration des chaines on prem et des chaines déployées sur AWS Environnement techniques (Excellent niveau requis) : Ansible Terraform Docker Git Environnement techniques (bon niveau requis) : Kubernetes / Helm CI Jenkins / GitHub Shell SQL ELK Environnement techniques (c'est un plus) : Traefik & Squid Java / Nodejs
Offre d'emploi
Data Engineer
Description du poste : En tant que Data Engineer chez Digital Power Consulting, vous serez chargé de la conception, de la mise en place et de l’optimisation des infrastructures de données. Vous interviendrez sur des projets stratégiques pour nos clients, en veillant à l'efficacité et à la qualité des flux de données. Vos missions : Concevoir et mettre en œuvre des pipelines de traitement des données. Collecter, stocker, transformer et traiter des données massives. Assurer la qualité, la sécurité et la scalabilité des infrastructures de données. Collaborer avec les équipes Data Science pour permettre une exploitation efficace des données. Optimiser les bases de données pour garantir des performances élevées. Participer à la mise en place de solutions Big Data et Cloud (AWS, Azure, GCP). Documenter les processus et les solutions techniques. Compétences requises : Maîtrise des langages de programmation tels que Python, Java ou Scala. Expérience dans la gestion des bases de données (SQL, NoSQL). Connaissance des technologies de traitement de données (Hadoop, Spark, Kafka). Bonne maîtrise des services Cloud (AWS, Azure, GCP). Expérience dans la gestion des pipelines de données CI/CD. Compétences en optimisation de bases de données et en data modeling. Une bonne connaissance des outils ETL est un plus.
Offre d'emploi
Ingénieur Cloud Devops (H/F)
Tu recherches un défi professionnel ? Nous sommes à la recherche de personnes motivées pour nous rejoindre chez Aubay ! L’ADN Aubay allie l’Expertise technique, Innovation, Collaboration, Engagement et Ethique ! Nous recherchons un profil Ingénieur Cloud Devops pour nous rejoindre sur un projet du secteur. Dans le cadre de cette prestation vous aurez pour mission: contribuer aux projets d'évolution des infrastructures assurer l'ingénierie d'installation et de paramétrage des plateformes techniques réaliser les études techniques, préparer les configurations et les livrables: DAT, DEX, Recette sécurité, Build to Run, CMDB, Supervision Faire réaliser les changements dans le respect des contraintes de production assurer le transfert d'information vers les équipes N1/N2/N3 assurer un reporting régulier vers les coordinateurs et le management assurer un rôle de conseil sur les infrastructures existante
Mission freelance
Prestation de développement K8S / Terraform
Nous recherchons pour notre équipe franceinfo, une prestation de développement senior avec de fortes compétences autour de l’administration système, des pratiques devops et surtout une très bonne connaissance de Terraform. Le prestataire devra disposer d’une expérience back (PHP et/ou JS) avec des expertises détaillées dans la réponse, et notamment sur Docker/Kubernetes/Terraform pour le cloud privé et public (Azure, AWS). La prestation consistera à assurer la coordination entre les équipes de développement et les équipes ops. Elle pourra aiguiller les développeurs à mieux mettre en œuvre la configuration Cloud, la CI/CD, les bonnes pratiques de scalabilité et de sécurité pour travailler plus efficacement. La prestation consistera également à expliciter, accompagner et documenter les évolutions techniques. EXPERTISES TECHNIQUES INDISPENSABLES A LA REALISATION DE LA PRESTATION : - Expérience back : PHP et/ou JS - Expertises sur Docker/Kubernetes/Terraform - Expérience en environnement agile (scrum ou kanban) - Expérience Terraform/Azure - Expérience Terraform/AWS - Expérience en documentation technique (évolutions techniques) - Environnement technique : Cloud/Debian/Apache/Nginx/Varnish/CDN/PHP/JS Il sera nécessaire de détailler les expériences et de mettre en avant l’adéquations de celles-ci avec le besoin exprimé.
Offre d'emploi
Expert Cloud Infra réseaux
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons pour notre client banque basé en Région parisienne un profil Expert sur les problématiques Cloud Infra et réseaux : Au sein de DSIO, le programme Grace (Group Acceleration Cloud Excellence) porte la stratégie Cloud et la transformation du modèle de delivery de la DSI. Ce programme s’appuie sur le pôle Cloud Technology Plaƞorm pour gérer la nouvelle landing zone AWS qui hébergera à terme la majorité des workloads cloud d’Hermès. Cette équipe a pour responsabilité de fournir des socles techniques solides qui seront consommés par les équipes Applicative Plaƞorm de la DSI. Cette équipe est composée de 5 personnes (Architectes et builders) qui ont défini l’architecture cible (Account factory, Identité, connectivité, sécurité …) qui a été validée par les différentes parties prenantes (entreprise architecture & sécurité). La LZ EMEA a été ouverte cet été et sera déclinée AMER/APAC en 2025. En complément du socle LZ, d’autres initiatives complémentaires sont en cours telles que l’automatisation de la documentation AWS, un backup centralisé et l’ouverture d’une LZ en chine (AWS China). Déployer et maintenir les différents socles de la landing zone, s'assurer de la cohérence et de l'homogénéité de l'IAS et de sa documentation, veiller à la conformité avec les standards d'architecte et de sécurité, écrire les scripts pour automatiser des opérations courantes, comprendre les besoins des clients et leur proposer des solutions 'en prenant en compte les enjeux sécurité, couts, facilité de déploiement, d'usage et de maintenance.. Minimum 7 ans d'expérience dans l'infrastructure, développement et/ou cloud, au moins une certification AWS associate (Architect serait un plus). aisance à diagnostiquer, facilité les problèmes.. Bonne connaissances des méthodes Devops et agile. Anglais courant Forte expertise dans le déploiement et la gestion des ressources et services Cloud, Excellente connaissance des socles réseau, sécurité et système, bonne compréhension de la gestion de l'identité, maitrise des outils d'automatisation.... Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Mission freelance
Ingénieur réseau (PRTG/SPLUNK)
Ingénieur réseau Lieu : Lyon Horaires de travail : Sur site + astreinte Durée : 2-3 ans Début : Dès que possible J'aide actuellement une société de logiciels de premier plan à trouver un ingénieur réseau indépendant en raison du départ de membres de son équipe pour différentes opportunités, laissant un vide à combler. Vous serez en charge du support opérationnel et de la maintenance de l'infrastructure réseau de mon client. Glocomms est un fournisseur de recrutement de confiance pour cette organisation depuis quelques années et a été responsable du placement de nombreux consultants dans leurs rangs Responsabilités : Être responsable et en charge de la maintenance opérationnelle du réseau de l'organisation via des tickets ServiceNow Résoudre les problèmes, soutenir et exécuter les opérations RUN sur le réseau de l'organisation Avoir une bonne endurance pour de nombreux problèmes techniques et problèmes de différentes gravités, en commençant par une priorité élevée sur le réseau de l'organisation Quelqu'un prêt à faire un effort supplémentaire pour maintenir le réseau opérationnel en étant de garde pour les pannes de réseau pendant le week-end Proposer des solutions aux problèmes au sein du réseau de l'organisation Travailler également sur des projets d'opérations RUN Compétences et qualifications: 5 à 10 ans d'expérience dans les opérations réseau Des certifications réseau/sécurité seraient souhaitées Forte expérience dans PRTG et Splunk Expérience des opérations réseau autour de Cisco et Palo Alto Expérience avec les systèmes d'administration Expérience dans IT4IT Expérience dans les technologies Cloud telles que comme Azure et AWS
Mission freelance
Administrateur Linux/AWS
Vos missions : Vous serez en charge de l'administration et du support de niveau 2 et partiellement de niveau 3 de l'environnement Linux / AWS de l'entreprise. La connaissance d' EKS est un véritable plus. Il faudra garantir l' exploitation des applications. Vous administrerez les environnements suivants : Production, Pré-production, Performance, Formation, Recette. Vous serez amené.e à assister et former les utilisateurs. Vous superviserez et mesurerez les performances des différents systèmes d’information (pannes, flux, disponibilité).
Offre d'emploi
Développeur Node / AWS (h/f)
Nous recherchons un Développeur Node.js expérimenté, avec une expertise dans l’utilisation d’ AWS et le développement d’API , pour renforcer notre équipe. Vous participerez à la conception et au développement d’applications backend robustes, scalables, et à haute disponibilité, en vous appuyant sur les services cloud d’AWS et en suivant les meilleures pratiques d’architecture API. Concevoir, développer et maintenir des API RESTful performantes et évolutives en Node.js . Utiliser les services d' AWS pour l’hébergement et le déploiement des applications (Lambda, API Gateway, S3, DynamoDB, etc.). Collaborer avec les équipes frontend et backend pour assurer une intégration fluide entre les services. Implémenter des solutions basées sur des architectures microservices. Participer aux revues de code et à l’amélioration continue des processus de développement. Optimiser les performances des API et garantir leur sécurité (authentification, autorisation, chiffrement). Surveiller et déboguer les incidents de production. Participer à la mise en place d’une infrastructure CI/CD pour le déploiement continu des API.
Mission freelance
Tech Lead RoR AWS (temps partiel 1 ou 2j semaine)
Cherry Pick est à la recherche d'un "Tech Lead RoR AWS (temps partiel)" pour un client Start Up. Nous cherchons à renforcer notre équipe de dev avec un lead Tech/Dev qui pourrait nous aider, à temps partiel, sur des sujets d'architecture et donner un coup de main pour piloter nos développements et accélérer notre roadmap. Mission: Pilotage du delivery tech Encadrement de l’équipe Support aux choix d’architecture : logicielle, data & IA 1 à 2j / semaine Stack Technique : front : React back : Ruby on Rails, Python, SQL, Docker hosting : Heroku, AWS Architecture - driving équipe de développement Tech lead / Architecte dashborading data module analytics
Offre d'emploi
CLoud DevOps - GenAI
Dans le cadre de ces développements, le DataLab Groupe souhaite confier à un expert Cloud DevOps/AI Engineer, venant en renforcement de son équipe usine logicielle, la mission suivante : - Travailler sur des sujets de migration de solution « on premise » vers le cloud ; - Mettre en place l’outillage nécessaire à l’implémentation d’une méthodologie DevSecOps ; - Assurer l’intégration dans les architectures cible : Configurer les plateformes, Industrialiser les architectures, Définir les accès aux ressources et les optimiser ; - Assister à l’élaboration de solutions et leurs optimisations ; - Exploitation de services Data/IA fournis par les cloud providers, notamment en IA générative ; - Rédiger les documents techniques et des livrables projets ; - Améliorer les architectures actuelles ; - Transférer la connaissance et la compétence aux internes du DataLab Groupe. Résultats Attendus des Livrables : Le consultant sera accompagné par l’équipe usine logicielle. Il devra, par ailleurs, fournir les livrables suivants : - Une documentation conforme aux exigences du DataLab Groupe ; - Un support de l’ensemble des applications gérées en interne ; - Un support de l’ensemble des applications de nos entités et déployés par le DataLab Groupe ; - Codes sources commentés et « reviewés » ; - Intégration de tests unitaires des fonctionnalités développées ; Présentation et partage des travaux.
Mission freelance
Développeur K8S Terraform
Contexte : Nous recherchons un développeur senior avec de fortes compétences autour de l’administration système, des pratiques devops et surtout une très bonne connaissance de Terraform. MISSIONS La mission consistera à assurer la coordination entre les équipes de développement et les équipes ops. Elle pourra aiguiller les développeurs à mieux mettre en œuvre la configuration Cloud, la CI/CD, les bonnes pratiques de scalabilité et de sécurité pour travailler plus efficacement. Elle consistera également à expliciter, accompagner et documenter les évolutions techniques. PROFIL : Le titulaire devra disposer d’une expérience back (PHP et/ou JS) avec des expertises détaillées, et notamment sur Docker/Kubernetes/Terraform pour le cloud privé et public (Azure, AWS).
Mission freelance
Cyber Security Architect
L'architecte de la sécurité et de la conformité occupe un poste essentiel : il veille à ce que nos systèmes d'information d'entreprise soient non seulement conformes aux normes CMMI et ISO, mais qu'ils les dépassent. Ce rôle exige un mélange sophistiqué de surveillance de la conformité associé à un ensemble de compétences techniques solides en matière de planification, de prototypage, d'ingénierie, de mise en œuvre, d'exploitation et de surveillance de systèmes d'information complexes. L'architecte assurera la sécurité des systèmes, améliorera l'efficacité opérationnelle et garantira le respect des normes de conformité réglementaire nécessaires, en mettant l'accent sur les solutions cloud. Bonne connaissance des normes de conformité : piloter des projets de conformité pour certifier que tous les systèmes d'information de l'entreprise respectent ou dépassent ces repères.
Mission freelance
DataOps Engineer
Nous recherchons un DataOps Engineer confirmé pour renforcer notre équipe de 3 personnes. Ce poste s'inscrit dans un besoin d'industrialisation de nos processus de gestion de données, avec un focus particulier sur l'ingestion de données en temps réel. Responsabilités principales · Concevoir, développer et maintenir des pipelines de données robustes et évolutifs · Implémenter des solutions d'ingestion de données en temps réel · Participer à l'industrialisation des processus DataOps · Appliquer les bonnes pratiques DataOps dans l'ensemble de nos projets · Collaborer étroitement avec les équipes de développement et d'infrastructure
Mission freelance
Expert(e) Kubernetes AWS
Le candidat rejoindra l’équipe ISL en tant qu’expert Kubenetes AWS. A ce titre il interviendra en particulier sur : - La gestion opérationnelle des cluster Kubernetes : supervision, optimisation, montée de version - Création d’infrastructure sur AWS via Terraform (voir ci-après la liste des principaux services AWS) - Le support aux équipes applicatives qui déploient dans ces clusters - La création et la maintenance des chaînes CICD o Pour les nouvelles : GitHub actions, ArgoCD, Helm o Chantier de migration des anciennes (Jenkins -> GitHub actions et Ansible -> ArgoCD, Helm) - Le chantier de mise en place de Datadog comme outil de supervision transverse de la DSI Le candidat devra être en capacité d’apporter son expertise et son conseil sur ces chantiers, d’accompagner les équipes applicatives, de proposer des axes d’amélioration et de progression devOps, de prendre en compte les contraintes sécurité, d’optimiser les coûts. La mission pourra s’étendre à d’autres périmètres au sein de l’équipe ISL, selon les opportunités et les appétences du candidat. Il sera accueilli dans une équipe d’architectes autonomes dans laquelle on favorise l’écoute, l’entraide, le partage de connaissances et la montée en compétences. La mission se déroulera au sein de l’équipe Infrastructure Services Layer (ISL) qui est rattachée à la Délégation Support et Opération. Cette équipe est constituée d’architectes techniques avec pour missions principales : - Le build et le run de l’infra sur AWS : design technique, industrialisation, FinOps - La gestion opérationnelle des clusters Kubernetes (EKS) en méthodologie devOps avec les équipes applicatives
Offre d'emploi
Ingénieur OPS EKS AKS
Mise en place et maintien en conditions opérationnelles d'une plateforme de provisioning de ressources Kubernetes dans le cloud public, intégrée aux exigences de sécurité du Groupe. Automatisation et industrialisation des déploiements d'infrastructure dans des environnements Cloud publics (Azure et/ou AWS). Amélioration continue de la plateforme avec l’ajout de nouvelles fonctionnalités en collaboration avec les équipes Sécurité, Architecture, etc. Assistance aux équipes d’applications lors de l’onboarding et des déploiements. Mise en place des systèmes de monitoring et d’alerte. Résolution des incidents et mise en place d'actions préventives et correctives. Propositions d'améliorations sur les infrastructures existantes.
Mission freelance
Data Engineer Snowflake H/F
Notre client dans le secteur Culture et tourisme recherche un/une Data Engineer Snowflake H/F Description de la mission: Il est garant de l’accès qualitatif aux sources de données. Il s’assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d’en faciliter l’exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, … Il assure la supervision et l’intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, …). Activités et tâches : QUALIFICATION ET GESTION DES DONNÉES : • Capte les données (structurées et non structurées) produites dans les différentes applications ou à l’extérieur de l’entité • Intègre les éléments • Structure la donnée (sémantique, etc.) • Cartographie les éléments à disposition • Nettoie la donnée (élimination des doublons, …) • Valide la donnée • Éventuellement, il crée le référentiel de données Compétences / Qualités indispensables : Expert Snowflake, Bonne maitrise AWS RDS PostgreSQL , Maitrise partielle Python, Maitrise Partielle lambda / Step Function Compétences / Qualités qui seraient un + : Connaissance du domaine des médias / artistique Informations concernant le télétravail : 2 jours par semaine
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes