Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 142 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
DevOps GCP

Ecco Technologies
Publiée le
Google Cloud Platform
Terraform

2 ans
40k-50k €
400-580 €
France

Nous avons une mission de longue durée avec une visibilité jusqu'en 2027 pour un de nos partenaires, leader mondial dans le secteur du voyage et du tourisme. 🌍 Contexte du projet GCP a été choisi comme plateforme pour déployer des applications analytiques et orientées données. Vous évoluerez dans un environnement international (anglais indispensable), au sein d’une équipe d’experts travaillant sur Azure et GCP. 💡 Vos missions 🚀 Concevoir, déployer et améliorer l’automatisation Infra As Code sur GCP (Terraform, CI/CD, GitOps), couche basse network, interconnexion landings zones. 🔧 Mettre en place et gérer des pipelines CI/CD pour les applications migrées sur GCP. 👀 Assurer le monitoring, l'observabilité et la sécurité des services déployés. ⚡ Optimiser les performances et la scalabilité des workloads sur GCP. 🤝 Accompagner les équipes de développement dans le déploiement et l’exploitation de leurs applications sur GCP. 📚 Apporter un support technique, partager des bonnes pratiques et dispenser des formations aux équipes internes. 📍 Localisation : Full remote possible.

Freelance

Mission freelance
Ops Engineer (nous recherchons un candidat qui habite à Lille)

ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
GitLab CI
Kubernetes

3 mois
280-460 €
Lille, Hauts-de-France

L'équipe assure les évolutions et la maintenance en conditions opérationnelles des outils de l'usine logicielles de Build dans le Cloud. L’usine est fonctionnellement et technologiquement hétérogène et fait appel à des compétences variées (architecture technique, exploitation, administration d’outils, automatisation, pilotage des usages…), et répond à des besoins en constante évolution. Nous privilégions le travail collaboratif : pairing, revues de codes, post-mortems. Astreinte une semaine sur 6. Description : L'usine logicielle est composée de différents produits que l'équipe Avengers installe et maintient pour ses utilisateurs : Gitlab, Runners MacOS, Jenkins, Artifactory, Puppet, Rundeck, Sonar, Vault. Pour compléter notre équipe, nous cherchons un ingénieur de production avec une expertise CI/CD, infra as code, Docker. Responsabilités : l Contribuer au run de l'équipe : évolutions et créations des stacks techniques (déploiement Terraform, MAJ des outils, mise en place de supervision, … ), support utilisateurs sur nos services l Contribuer au développement des solutions internes, de librairies et des bonnes pratiques l Contribuer aux choix technologiques d'évolution et d'exploitation de nos outils : workflows de déploiement, choix des outils, … l Participer au processus d'amélioration continue (Post mortem, REX, Cérémonies Agiles …) l Rédaction de documentation / LADR Livrables • Suivi opérationnel : mise en place et suivi de métriques sur nos environnements de prod et hors prod (intégration, recette), suivi du statut des environnements, support technique sur les environnements. • Contribution aux releases et déploiements/livraisons de nos assets en prod et hors prod. • Industrialisation de nos processus et pratiques (gestion des versions, releases, releases notes, notes d’installation, procédure de déploiement etc). • Prise en charge des évolutions techniques sur les produits : montée de versions, sujets de sécurité, évolutions des pods ou de pipelines. • Participation au suivi sécurité sur nos assets. • Participation à la conception et à la réalisation de nos produits : infrastructure et besoins non fonctionnels (monitoring, performance, exploitation…).

Freelance

Mission freelance
Développeur Python (Kubernetes - Databricks - Terraform - Cloud)

Cherry Pick
Publiée le
AWS Cloud
Azure
Databricks

12 mois
500-550 €
Paris, France

Missions Développer et optimiser les flux de données et pipelines sur Databricks . Implémenter et gérer des solutions basées sur Kubernetes , en particulier autour de Colibra . Participer à la migration des outils SaaS en s’assurant de leur intégration dans l’écosystème du client. Automatiser les déploiements et la gestion de l’infrastructure avec Terraform . Travailler en collaboration avec les équipes Cloud et Data pour garantir la scalabilité et la performance du Data Lake sur Azure et AWS . Assurer la sécurité et la gouvernance des données dans l’environnement Cloud. Compétences Techniques Requises Python ( maîtrise exigée ) Cloud : AWS & Azure (expérience confirmée) Kubernetes (expérience avancée) Databricks (maîtrise exigée) Terraform (maîtrise exigée)

Freelance

Mission freelance
Expert Infras As Code (Ansible, Terraform, Openshift, Gitlab-Ci)

PROPULSE IT
Publiée le
Ansible
GitLab CI
Openshift

24 mois
450-900 €
Paris, Île-de-France

PROPULSE IT recherche un Expert Infras As Code (Ansible, Terraform, Openshift, Gitlab-Ci). Dans le cadre du projet « IAC » et de la maintenance évolutive de la chaine de déploiement continue, le client souhaite se renforcer avec une prestation d'expert technique sur l'infra As Code et le CI/CD. La chaîne d'outillage est composée des éléments suivants : Gitlab (repository + pipelines + runners), Hashicorp Vault, Artifactory , Kaniko, Trivy, Grype, Syft, Checkov, Kubernetes, ArgoCd Cette prestation sera menée au sein d'une équipe « DevOps », utilisant la méthodologie « Scrum » et le principe du « GitOps ». mission : Réaliser et modifier différents rôles et playbooks Ansible - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Mise à jour des documents des normes d'utilisation de la brique technique - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées Réaliser et modifier différents modules Terraform - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées. Réaliser et modifier différents jobs et pipelines Jenkins - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution Réaliser et modifier différents jobs et pipelines Gitlab-CI - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées. Assurer le support N3 de la chaîne CI/CD • Suivi, mise à jour et résolution des incidents en respectant les processus définis • Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) • Mode opératoire des actions réalisées

Freelance

Mission freelance
Tech Lead Data Engineer

WHEEL OF WORK
Publiée le
Docker
Google Cloud Platform
Microservices

1 an
400-510 €
Lille, Hauts-de-France

Contexte et Mission : Nous recherchons un Tech Lead Data Engineer expérimenté. Ce rôle clé contribuera de manière significative à la transformation digitale de l'entreprise par le biais de la gestion, de la modélisation, et de l'optimisation de données dans un environnement cloud avancé. Développer et optimiser les flux de données pour l'alimentation, le stockage, la modélisation et la restitution. Superviser la qualité des développements réalisés par l'équipe et maintenir les solutions existantes. Contribuer à l'architecture et à la mise en place de nouvelles solutions sur Google Cloud Platform, en intégrant des pratiques agiles et CI/CD. Compétences Techniques Requises : Expertise avérée en SQL et ETL ; compétence approfondie en Python nécessaire. Expérience avec Microservices/API , et Docker . Familiarité avec DBT , CI/CD , GitHub , Terraform , et Kafka . Connaissance pratique de Power BI, Looker et préférablement Google Cloud Platform (GCS, BigQuery) . Maîtrise de l'anglais à l'écrit et à l'oral impérative.

Freelance

Mission freelance
Spécialiste Infra Azure DevOps - 92 - Mission longue

Montreal Associates
Publiée le
Ansible
Azure
Azure DevOps

10 mois
500-600 €
Nanterre, Île-de-France

Bonjour, Dans le cadre d'un remplacement, l'un de nos plus importants clients nous demande une prestation Azure DevOps de longue durée. Voici les livrables = > • Automatisation des déploiements de l’infrastructure cloud sur Azure • Évolutions et managements de l'infrastructure réalisés as code au travers de développement CI/CD (AzureDevops/Github) • Assistance à la résolution de problèmes lié à la chaine CICD • Développement Infrastructure as code sur des briques cloud AKS/PaaS/IaaS via terraform/ansible/powershell • Qualités fonctionnelles exigées pour une bonne compréhension des clients internes et un accompagnement adapté. Mission longue sur Nanterre. 1 seul jour de présentiel par semaine. Anglais exigé.

Freelance
CDI

Offre d'emploi
DevOps-DataOps(Apache Spark)

bdevit
Publiée le
Ansible
Apache Spark
CI/CD

36 mois
40k-55k €
500-520 €
Île-de-France, France

Contexte : Dans le cadre d’un projet stratégique pour une banque de renom, nous recherchons un DevOps-DataOps pour automatiser et industrialiser les pipelines de données. Ce rôle exige une expertise avancée dans la gestion des environnements Kubernetes on-premise , ainsi qu’une forte compétence sur Apache Spark pour des traitements de données à grande échelle. Missions Principales : Installer, configurer et gérer des clusters Kubernetes on-premise , en assurant leur haute disponibilité et leur scalabilité ; Intégrer Kubernetes avec des outils de traitement de données tels qu’Apache Spark , en optimisant les performances et la résilience des pipelines de données ; Déployer et gérer des microservices et des workflows complexes sur Kubernetes, en assurant leur intégration fluide dans des pipelines CI/CD ; Automatiser le traitement des données avec Apache Spark (PySpark, Spark SQL, Spark Streaming), tout en optimisant les performances des jobs et leur interaction avec des plateformes comme Databricks ou EMR ; Concevoir et déployer des pipelines CI/CD robustes (Jenkins, GitLab CI, ArgoCD) pour des flux de données critiques, incluant des processus d’automatisation des tests et des déploiements ; Implémenter des solutions de monitoring avancées pour Kubernetes et Spark (Prometheus, Grafana, CloudWatch), en mettant l’accent sur le scaling automatique et la gestion proactive des performances ; Déployer des stratégies de sauvegarde et de restauration des données, en garantissant la résilience des systèmes face aux défaillances.

Freelance

Mission freelance
Data engineer

ESENCA
Publiée le
BigQuery
Github
Google Cloud Platform

1 an
400-430 €
Lille, Hauts-de-France

Nous recherchons un consultant Data pour la création et l'amélioration continue des produits digitaux Eco-responsable et sociaux. L'objectif de ces produits digitaux est de mesurer l'impact environnemental et social des produits vendus par les BU du groupe pour identifier des axes d'amélioration. Le consultant Data aura une dominance Data Engineer mais des compétences de Data Analyst sont également attendues - Collecter les données via des PIPELINE - Mesurer la qualité des données - Historiser les données - Créer des modèles optimisés - Créer des dashboards pour répondre aux besoins métiers Environnement technique sur lesquels une expérience significative est attendue et non une première formation - GCP & BigQuery - Terraform & Github - PowerBI Gen 2

Freelance

Mission freelance
Splunk Architect - Remote - 6 Months

IBSC LTD
Publiée le
Ansible
AWS Cloud
Azure

6 mois
500-550 €
Luxembourg

En tant qu'architecte Splunk, vous serez un élément essentiel de notre équipe, dirigeant la conception de Splunk avancé solutions d'intégration dans les environnements sur site et cloud (AWS, Azure, Kubernetes, VMware, etc.). Vous travaillerez en étroite collaboration avec les clients pour définir la portée des projets, comprendre leur activité besoins et documenter les architectures de solutions. En collaboration avec les équipes opérationnelles, vous assurer un transfert transparent de l'infrastructure en mettant l'accent sur l'automatisation et l'évolutivité, et vous fournira un support de niveau 3 pour maintenir une disponibilité et une confidentialité élevées du service.

Freelance

Mission freelance
Chef de projet technique infrastructures anglais

GROUPE ALLIANCE
Publiée le
Ansible
GitLab CI
Grafana

24 mois
370-520 €
Île-de-France, France

Pour le compte de l' un de nos clients, nous recherchons un Chef de Projet Technique confirmé. Le candidat idéal aura une expérience significative en gestion de projets techniques, une excellente maîtrise des outils de production et une solide compréhension des infrastructures IT. Vos missions principales seront: -Pilotage de projets techniques : Assurer le suivi des projets depuis leur conception jusqu’à leur mise en production, tout en respectant les objectifs de qualité, de délai et de coût. -Coordination des équipes : Fédérer et encadrer les différentes parties prenantes (équipes techniques, prestataires, partenaires) pour garantir le bon déroulement des projets. -Optimisation des outils de production : Contribuer à l'amélioration continue des outils et des processus de production. -Engagement de service : Garantir le respect des engagements de service (SLA) et veiller à la satisfaction des utilisateurs finaux. -Organisation et reporting : Mettre en place une planification rigoureuse, des outils de suivi et des rapports réguliers pour une gestion transparente.

Freelance

Mission freelance
Data Engineer AWS

ALLEGIS GROUP
Publiée le
AWS Cloud
Data analysis
Dataiku

3 mois
100-500 €
Boulogne-Billancourt, Île-de-France

TEKsystems recherche pour l'un des clients grands comptes un Data Engineer AWS: Contexte du Projet: Équipe actuelle : 1 Architecte, 4 Data Engineers Objectif : Migration et POC sur AWS Tâches Principales Communication : À l'aise à l'oral et à l'écrit Rédaction des comptes rendus Gestion des Données : Faire tourner la DATA sur un environnement AWS Modifier et configurer les environnements existants (Hadoop) Collecte et extraction de données Migration et Déploiement : Migration des données vers AWS Passage sur Kubernetes Nexus (fin 2023) Déploiement du premier POC avec Terraform Échantillonnage des données (actuellement sur HDFS) Support et Collaboration : Accompagner l'architecte dans la mise en place et le cadrage du projet Identifier les services nécessaires, paramétrer et déployer Communication avec les métiers et les architectes Compétences Requises Excellentes compétences en communication (oral et écrit) Expérience avec AWS, Hadoop, Kubernetes, Nexus, Terraform Capacité à rédiger des comptes rendus clairs et concis Compétences en collecte et extraction de données

CDI
Freelance

Offre d'emploi
Expert DevOps IAC Azure / Terraform

Lùkla
Publiée le
Azure DevOps
Terraform

1 an
40k-70k €
120-620 €
Paris, France

Description du poste Nous recherchons un Expert DevOps spécialisé en Infrastructure as Code (IaC) sur Azure avec Terraform. Vous serez en charge de la conception, l’implémentation et l’optimisation des infrastructures Cloud automatisées pour assurer la scalabilité et la résilience des systèmes. Missions principales Concevoir et implémenter des infrastructures Cloud sur Microsoft Azure en utilisant Terraform . Automatiser le déploiement des infrastructures et assurer leur gestion via des pipelines CI/CD (Azure DevOps, GitHub Actions, Jenkins, etc.). Développer et maintenir des scripts et modules Terraform réutilisables. Optimiser la gestion des ressources Cloud en appliquant les bonnes pratiques de sécurité, de performance et de coût. Superviser, monitorer et garantir la disponibilité des infrastructures via des outils comme Prometheus, Grafana ou Azure Monitor. Assurer une veille technologique continue et proposer des améliorations sur les architectures en place. Collaborer étroitement avec les équipes de développement, d’exploitation et de sécurité. Compétences requises Techniques : Maîtrise de Terraform et des concepts d’Infrastructure as Code (IaC). Expérience avancée avec Microsoft Azure (Azure Resource Manager, Azure Kubernetes Service, Azure Functions, etc.). Connaissance approfondie des outils de CI/CD : Azure DevOps, GitHub Actions, Jenkins. Expérience en scripting (Bash, PowerShell, Python). Bonne maîtrise des outils de conteneurisation et d’orchestration (Docker, Kubernetes, Helm). Connaissance des principes DevSecOps et des bonnes pratiques en matière de sécurité Cloud. Expérience avec les outils de monitoring et logging (Grafana, Prometheus, Azure Monitor, ELK). Compréhension des architectures microservices et serverless .

Freelance

Mission freelance
DevOps Azure /Projet Orienté Data/Anglais Indisepnsable

TEOLIA CONSULTING
Publiée le
Azure Data Factory
Snowflake
Terraform

36 mois
540-580 €
La Défense, Île-de-France

Je cherche pour l'un de nos clients un Consultant DevOps cloud Azure dans le cadre d'un projet Data. avec un bon niveau en anglais: Contexte international Contexte L’objectif est d’automatiser la chaîne CI/CD (GitHub / Azure DevOps) dans le cadre d’un projet Data & Analytics. Le profil idéal serait une personne ayant déjà participé à la mise en place d’une chaîne automatisée de test et de déploiement des workflows Azure Synapse. Environnement technique Snowflake Azure Data Factory Azure Synapse Azure Key Vault Virtual Network DNS Virtual Machines Terraform

Freelance
CDI

Offre d'emploi
un consultat TIBCO BW + Informatica

OMICRONE
Publiée le
Ansible
Jenkins
Kubernetes

1 an
40k-45k €
400-500 €
Île-de-France, France

Nous recherchons un expert TIBCO BW + Informatica ! 🚀 Bonjour à tous, Nous sommes à la recherche d’un consultant TIBCO BusinessWorks (BW) + Informatica , avec une solide expérience en intégration de systèmes et en gestion des flux de données . 🔹 Compétences recherchées : ✅ Expertise en TIBCO BusinessWorks (BW) pour la gestion des flux d’intégration ✅ Maîtrise de Informatica pour le traitement et la transformation des données ✅ Expérience sur des architectures distribuées et projets d’intégration complexes ✅ Capacité à optimiser, monitorer et sécuriser les processus ETL et ESB ✅ Bonnes compétences en diagnostic et résolution d’incidents

Offre premium
Freelance

Mission freelance
DevOps Azure

SKILLWISE
Publiée le
Azure DevOps
Docker
Powershell

3 mois
100-550 €
Paris, France

Au sein d'une entreprise dynamique et en constante évolution, votre rôle de DevOps sera central. Vous intégrerez une équipe de 3 personnes dans laquelle l'autonomie est un facteur clé. Environnement technique : Environnement 100% Azure PaaS : Container App Docker DAPR Redis Service Bus SQL Database App Config App Insights Log Analytics Outils : Terraform Powershell Azure DevOps (Yaml pipelines) Expérience sur cloud Cloud Azure et dans un environnement micro service nécessaire. Vos tâches seront : Aligner les pipelines de l'équipe QA avec l'équipe DevOps (YAML Azure DevOps) Implémentation d'un DAST Mise en place d'environnements de développement à la demande Assurer la supervision de la plateforme Garantir l'automatisation via le développement d'outils et le scripting Participer à l'évangélisation des bonnes pratiques DevSecOps

Freelance
CDI
CDD

Offre d'emploi
Data Engineer GCP

SARIEL
Publiée le
Git
Google Cloud Platform
Python

12 mois
40k-70k €
400-600 €
Paris, France

Bonjour, Je vous envoie ce mail car dans le cadre d'une mission de longue durée pour notre client situé en à Paris, nous recherchons un Data Engineer GCP. Type de profils confirmé (> 5 ans d'expérience) Technologies GCP (expérience obligatoire sur ce cloud provider) Python (expérience obligatoire) Bonne maîtrise BigQuery (obligatoire) Bonne maîtrise Terraform Git (obligatoire) Dans le cas où vous êtes intéressé, pourriez-vous svp envoyer votre CV au format Word en indiquant votre disponibilité ainsi qu'une fourchette de vos prétentions salariales ou de votre tarification journalière si vous êtes indépendant ?

142 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous