Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 484 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Ingénieur sécurité et réseaux CLOUD / GCP

NETSEC DESIGN
Publiée le
Google Cloud Platform

2 ans
40k-76k €
400-600 €
Guyancourt, Île-de-France

Nous recherchons pour notre client final (grand compte) deux Ingénieurs Sécurité Cloud pour le maintien en condition des équipements de sécurité : Mise en place des infrastructures réseau et sécurité au sein des clouds GCP et Azure. Mise en place des solutions d'interconnexion. Support de niveau 3 sur tout incident opérationnel concernant les équipements de sécurité dans l'environnement cloud et les datacenters associés. Identification et mise en place des correctifs, ainsi que l'évolution de l'ingénierie si nécessaire. Rédaction de procédures et de documents techniques à suivre par les équipes de niveaux 1 et 2. Accompagnement des projets pour la mise en place de l'environnement réseau associé (flux, routage, etc.). Participation aux projets de modernisation des différents services réseaux (firewalls, DNS, routeurs, etc.). Suivi des actions de remédiation pour corriger les vulnérabilités de sécurité et mise en conformité des équipements, réseaux et systèmes de sécurité concernés.

Freelance

Mission freelance
Data ingénieur - Python - GCP

Archytas Conseil
Publiée le
BigQuery
CI/CD
Google Cloud Platform

12 mois
100-550 €
Lille, Hauts-de-France

Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.

Freelance

Mission freelance
Ingenieur de Production Devops - GCP (H/F)

DCS EASYWARE
Publiée le

Paris, France

Au sein de la Production Applicative Décisionnelle de notre client, vous jouerez un rôle central dans la gestion, l'intégration et l'exploitation de solutions techniques infogérées. Vous contribuerez aux missions stratégiques de notre pôle DATA et garantirez le bon fonctionnement de nos plateformes en conditions opérationnelles. Vos principales missions : - Gestion de projet : Conduite de projets (gestion des ressources, reporting, COPILs) en lien avec les équipes et les unités métiers. - Intégration technique : Prise en charge de l'intégration de nouvelles solutions, et optimisation des solutions existantes. - Exploitation & Sécurité : Supervision des plateformes techniques, garantie de leur disponibilité et conformité aux normes de sécurité et d'audit. - Gestion des incidents critiques : Prise en charge des incidents majeurs (analyse, diagnostic, résolution), coordination avec les experts et support éditeurs. - Coordination multi-intervenants : Interface entre les experts techniques et les éditeurs, assurant le suivi des actions nécessaires. - Documentation technique : Rédaction des manuels d'exploitation et des procédures de sauvegarde et supervision. Conditions et environnement de travail : - Horaires décalés (HPO) et astreintes hebdomadaires ou week-end possibles. - Un bon niveau d'anglais (oral et écrit) est impératif pour les échanges avec les équipes et partenaires internationaux. Vous êtes expert en Google Cloud Platform, confirmé en Scripting Shell et gestion de projets ? Vous souhaitez intégrer un environnement dynamique et collaboratif ? Rejoignez-nous et contribuez activement à l'innovation et à la performance de notre Pôle DATA ! Compétences techniques recherchées : - Scripting SHELL : Confirmé - Impératif - Google Cloud Platform (GCP) : Expert - Impératif - Gestion de projet : Confirmé - Important - Big Query : Junior - Important - Systèmes : Linux - Ordonnanceurs : VTOM, CTL-M - Technologies : Apache, CFT, Git, Jenkins, XLD, XLR - Réseaux : TCP/IP, RP, FW Connaissances supplémentaires appréciées : - Bases de données (Oracle, Teradata, SQL) - Solutions BI : BO, Cognos - Compétences en DevOps et Cloud

Offre premium
Freelance

Mission freelance
Expert DevOps Cloud (GKE/OpenShift) - Projet Innovant dans le Secteur Retail - Chatillon (H/F)

EASY PARTNER
Publiée le
CI/CD
GitLab CI
Google Cloud Platform

6 mois
450-500 €
Paris, France

Notre entreprise est à la recherche d'un talentueux Expert DevOps Cloud pour accompagner notre pôle DevOps dans une mission clé. Engagés dans une culture DevOps, Cloud, CICD et automatisation forte, nous visons à optimiser nos processus de déploiement et d'intégration continue. L'équipe, composée de professionnels passionnés, gère une variété de projets innovants visant l’excellence opérationnelle et la satisfaction client. La création de ce poste répond au besoin d'intégrer des solutions logicielles et matérielles de haute qualité dans notre environnement de production cloud et de renforcer nos capacités d'automatisation et de déploiement continu. ▶️ Missions Principales: Intégrer des solutions dans l'environnement de production Cloud (GCP/OpenShift) et en assurer le déploiement via CICD. Gérer le support nécessaire des applications lors des incidents en production. Intervenir dans la mise en exploitation de nouvelles applications ou la livraison de nouvelles versions. 🛠️ Stack technique À maîtriser: GKE/GCP - Confirmé Ansible (Tower) - Confirmé GitLabCI - Confirmé Helm - Confirmé Environnement technique global: Cloud Providers (GKE/OpenShift) CI/CD Pipelines Automatisation et conteneurisation

CDI
Freelance

Offre d'emploi
DevOps GCP

Degetel
Publiée le
Ansible
GitLab CI
Google Cloud Platform

1 an
40k-70k €
400-650 €
Châtillon, Île-de-France

Intègre la solution logicielle ou matérielle livrée par les services Etudes dans l’environnement de production Cloud (GCP/OpenShift). Intègre l’application et en assure le déploiement via CICD Gère le support nécessaire de l’application lors des incidents en production Intervient dans la mise en exploitation d’une nouvelle application ou la livraison d’une nouvelle version de cette application Est un spécialiste des technologies du cloud et des services proposés par les grands cloud providers Maîtrise généralement les concepts de conteneurisation, d’automatisation et de CI/CD* qui lui permettent d’accompagner les développeurs et de mettre en place une démarche DevOps dans l’entreprise

Freelance
CDI
CDD

Offre d'emploi
Architecte GCP

LOMEGARD
Publiée le
Gitlab
Google Cloud Platform
Terraform

1 an
40k-68k €
400-650 €
Île-de-France, France

Vous rejoignez l’équipe Cloud Public, au sein de laquelle vous intégrerez la Squad GCP. Vous aurez en charge le Build et le Run de la Landing Zone. Le périmètre de cette Squad s’étend de la conception technique du produit, de sa sécurisation, de sa mise en œuvre opérationnelle, de son maintien en condition opérationnelle en production et sa mise en œuvre financière. Vous évoluerez dans un environnement technique riche, distribué, sécurisé et hautement disponible. L’équipe est organisée en Agile. A ce titre, vos missions principales seront : Participation aux différents rituels Agile Maintien en condition opérationnelle de la Landing Zone et optimisations Documentation d’architecture et des procédures de run Traitement du backlog Jira et des User Stories identifiés par le PO et le PM Communication avec les différentes Entités du groupe Dans le cadre de la prestation, les livrables attendus sont : Documentations techniques de la plateforme et des projets hébergés dessus Plan de situation de chaque projet sur la landing zone GCP et plans d’actions associés

Freelance

Mission freelance
Data Engineer SSIS, SSAS, SSRS Talend, GCP

HIGHTEAM
Publiée le
Google Cloud Platform
Microsoft Analysis Services (SSAS)
Microsoft SSIS

3 ans
350-450 €
Île-de-France, France

Dans le cadre du renforcement de la Data Factory, nous recherchons un Data Engineer Confirmé pour rejoindre l'un de nos clients. En tant que Data Engineer, vous serez responsable de la conception, du déploiement et de l'optimisation des pipelines de données, en garantissant la qualité et la résilience des traitements. Vous interviendrez principalement sur les technologies Microsoft (SSIS, SSAS, SSRS), tout en étant amené à travailler avec des outils complémentaires tels que Talend , Open Text et des solutions Cloud sur Google Cloud Platform (GCP) . Conception et développement de pipelines ETL : Concevoir, développer et maintenir des workflows ETL robustes et optimisés avec SSIS , en tirant parti des fonctionnalités avancées telles que la gestion des packages, l'optimisation des performances, et l'orchestration des traitements complexes. Vous assurerez l'intégration fluide des différentes sources de données et la scalabilité des processus ETL. Gestion de cubes OLAP avec SSAS : Exploiter SSAS pour développer et gérer des cubes OLAP afin de faciliter les analyses multidimensionnelles. Reporting avec SSRS : Utiliser SSRS pour créer, maintenir et faire évoluer des rapports interactifs et automatisés, en fonction des besoins des utilisateurs métiers. Analyse des besoins métiers : Analyser les besoins des utilisateurs métiers et proposer des solutions techniques adaptées. Optimisation des performances : Identifier les goulots d’étranglement dans les pipelines de données et mettre en place des solutions pour optimiser les performances. Gestion des données : Intégrer, transformer et charger des données en garantissant leur qualité et leur cohérence. Mise en place de pipelines hybrides : Mettre en œuvre et optimiser des pipelines de données dans des environnements hybrides (on-premise et cloud). Résilience et monitoring : Assurer la résilience des traitements de données et mettre en place un monitoring efficace. Collaboration : Travailler en étroite collaboration avec les équipes Data Analyst , Data Scientists , et autres Data Engineer pour répondre aux besoins métiers. Documentation et recette : Rédiger la documentation technique des pipelines et des traitements, et participer aux phases de recette pour garantir la conformité des livrables.

Freelance
CDI

Offre d'emploi
Consultant GCP

ADATEK
Publiée le
Docker
Google Cloud Platform
Kubernetes

3 ans
40k-60k €
400-600 €
Île-de-France, France

Le consultant GCP aura en charge de : Concevoir des architectures Cloud GCP sécurisées et évolutives pour répondre aux besoins des clients. Implémenter et déployer des solutions Cloud GCP Conseiller les clients sur les meilleures pratiques en matière de Cloud GCP et les aider à optimiser leurs investissements. Gérer et maintenir les infrastructures Cloud GCP, en assurant la disponibilité, la sécurité et les performances. Collaborer avec les équipes de développement et d'exploitation pour intégrer les solutions Cloud GCP dans les workflows existants.

CDI
Freelance

Offre d'emploi
Data Engineer

Espritek
Publiée le
Google Cloud Platform
SQL
Talend

3 ans
40k-50k €
400-500 €
Ivry-sur-Seine, Île-de-France

Contexte : Nous recherchons un Data Engineer Confirmé EN PRE EMBAUCHE pour renforcer notre Data Factory. Vous aurez la charge de concevoir, déployer et optimiser des pipelines de données tout en garantissant la qualité et la résilience des traitements. Vous interviendrez principalement sur les technologies microsoft SSIS, SSAS, SSRS avec une ouverture recommandée sur Talend, OpenText et les solutions cloud de Google Cloud Platform (GCP). Description: • Concevoir, développer et maintenir des workflows ETL robustes et optimisés avec SSIS, en exploitant pleinement les fonctionnalités avancées telles que la gestion des packages, l’optimisation des performances, l’orchestration des traitements complexes et l’intégration de différentes sources de données. Collaborer avec les équipes pour assurer une mise en œuvre fluide et scalable des processus ETL. • Exploiter SSAS pour le développement et la gestion de cubes OLAP afin d'optimiser les analyses multidimensionnelles. • Utiliser SSRS pour maintenir et faire évoluer des rapports interactifs et automatisés répondant aux besoins des utilisateurs métiers. • Analyser les besoins métiers pour traduire leurs attentes en solutions techniques adaptées. • Réaliser des analyses approfondies des données pour garantir leur pertinence et répondre efficacement aux besoins identifiés. • Identifier et résoudre les goulots d’étranglement affectant les performances des pipelines de données. • Intégrer, transformer et charger les données depuis différentes sources en assurant leur qualité et leur cohérence. • Mettre en place et optimiser des pipelines de données sur des environnements hybrides (on-premise et cloud). • Assurer la résilience et le monitoring des traitements de données. • Collaborer avec les équipes Data Analysts, Data Scientists et autres Data Engineers pour répondre aux besoins des métiers. • Rédiger la documentation technique associée aux pipelines et aux traitements. • Participer aux phases de recette et garantir la conformité des livrables.

Freelance

Mission freelance
Data Engineer / Pré Embauche / SSIS SSAS / Talend

OCSI
Publiée le
Google Cloud Platform
Microsoft SSIS
SQL

1 an
400-550 €
Île-de-France, France

Nous recherchons un Data Engineer Confirmé EN PRE EMBAUCHE pour renforcer une Data Factory. Description o Concevoir, développer et maintenir des workflows ETL robustes et optimisés avec SSIS, en exploitant pleinement les fonctionnalités avancées telles que la gestion des packages, l'optimisation des performances, l'orchestration des traitements complexes et l'intégration de différentes sources de données. Collaborer avec les équipes pour assurer une mise en œuvre fluide et scalable des processus ETL. o Exploiter SSAS pour le développement et la gestion de cubes OLAP afin d'optimiser les analyses multidimensionnelles. o Utiliser SSRS pour maintenir et faire évoluer des rapports interactifs et automatisés répondant aux besoins des utilisateurs métiers. o Analyser les besoins métiers pour traduire leurs attentes en solutions techniques adaptées. o Réaliser des analyses approfondies des données pour garantir leur pertinence et répondre efficacement aux besoins identifiés. o Identifier et résoudre les goulots d'étranglement affectant les performances des pipelines de données. o Intégrer, transformer et charger les données depuis différentes sources en assurant leur qualité et leur cohérence. o Mettre en place et optimiser des pipelines de données sur des environnements hybrides (on-premise et cloud). o Assurer la résilience et le monitoring des traitements de données. o Collaborer avec les équipes Data Analysts, Data Scientists et autres Data Engineers pour répondre aux besoins des métiers. o Rédiger la documentation technique associée aux pipelines et aux traitements. o Participer aux phases de recette et garantir la conformité des livrables. Livrables : o Développement o Cahier de recette o Dossier de recette / Mise en production o Spécifications o Document d'exploitation

Freelance

Mission freelance
Data Engineer H/F

SMARTPOINT
Publiée le
Apache Kafka
Google Cloud Platform
Python

12 mois
100-450 €
Paris, France

• Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies.

Freelance

Mission freelance
Data Engineer H/F

SMARTPOINT
Publiée le
Apache Kafka
Google Cloud Platform
Python

6 mois
400-500 €
Paris, France

• Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies.

Freelance

Mission freelance
Data Engineer (GCP, DBT, SQL,Spark, Scala)

Cherry Pick
Publiée le
Apache Spark
Google Cloud Platform
Scala

3 mois
550-600 €
Paris, France

Cherry Pick est à la recherche d'un Data Engineer pour l'un de ses clients dans le secteur du luxe. Missions: Concevoir et développer des pipelines de données performants pour répondre aux besoins spécifiques du secteur du luxe. Traiter et transformer des données massives en utilisant Spark et Scala. Implémenter et maintenir des modèles de transformation avec DBT et SQL. Collaborer avec les équipes métiers pour comprendre et traduire leurs besoins en solutions techniques. Optimiser les processus de gestion des données sur GCP (BigQuery, Cloud Storage, Dataflow, etc.). Garantir la qualité et la fiabilité des données tout au long du cycle de vie.

Offre premium
Freelance

Mission freelance
Tech Lead Data Analytics GCP

KatchMe Consulting
Publiée le
Data analysis
Google Analytics
Google Cloud Platform

1 an
400-850 €
Paris, France

Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.

Freelance

Mission freelance
Data Analyst

ICSIS
Publiée le
BigQuery
Google Cloud Platform
Microsoft Power BI

1 an
400-500 €
Lille, Hauts-de-France

La mission consiste à : Accompagner les équipes Répondre aux problématiques métiers Réaliser des analyses statistiques préparatoires Réaliser des dashboards clairs, ergonomiques et optimisés Savoir restituer de façon synthétique des résultats concrets Compétences attendues : Expériences significatives comme Data Analyst / Data Engineer Power BI / SQL Esprit analytique Savoir-être : rigoureux, organisé et autonome à l'aise dans la communication auprès d'équipes techniques ou métiers Mission basée sur la métropole lilloise avec télétravail partiel

Freelance
CDI

Offre d'emploi
Ingénieur.e DevOps

Atlanse
Publiée le
DevOps
Google Cloud Platform
Helm

1 an
40k-55k €
400-500 €
Île-de-France, France

En tant qu’ingénieur.e DevOps, vous serez chargé.e d’assurer l’intégration, le déploiement et le support des applications dans l’environnement de production Cloud (GCP / Openshift) via des pipelines CI/CD. Votre rôle Analyse des besoins et veille technologique · Recueillir les informations et analyser les besoins en équipements matériels et logiciels · Préconiser et conseiller sur les choix de solutions informatiques en collaboration avec les architectes, les experts métiers et techniques tout en respectant les standards définis par l’entreprise · Rédiger les cahiers des charges et les appels d’offres puis analyser les propositions des fournisseurs en termes de performance, fiabilité et compatibilité · Réaliser une veille technologique pour optimiser les ressources systèmes de l’entreprise Mise en place et intégration · Concevoir ou paramétrer les logiciels sélectionnés en fonction des besoins identifiés · Configurer et dimensionner les solutions matérielles selon les performances requises · Tester les systèmes mis en place et veiller à la compatibilité des éléments entre eux · Contribuer à la validation technique lors des mises en production · Veiller à la sécurité et la fiabilité des systèmes de l’entreprise Exploitation · Valider l’installation et l’intégration des nouveaux outils (systèmes, réseaux et télécoms) · Diagnostiquer et résoudre les incidents ou anomalies tout en assurant leur suivi · Participer aux actions correctives de maintenance en veillant à leur qualité · Proposer des améliorations pour optimiser l’utilisation et l’organisation des ressources existantes · Rédiger et mettre à jour la documentation des procédures et consignes d’exploitation · Assurer le transfert de compétences et l’assistance technique aux équipes d’exploitation ainsi que leur formation si nécessaire Sécurité · Respecter et suivre les règles de sécurité définies par l’entreprise · Appliquer les plans de sauvegarde et de secours définis · Assurer la sécurité physique des données en termes de sauvegarde et d’archivage

484 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous