Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 716 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

PROPULSE IT
Publiée le
architecte
Azure
Cloud

24 mois
325-650 €
Paris, Île-de-France

Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess

Offre premium
Freelance

Mission freelance
Senior Data Engineer - Azure & Power BI

BLOOMAYS
Publiée le
Azure Data Factory
Databricks
Microsoft Power BI

6 mois
500-550 €
Gennevilliers, Île-de-France

Mission temps plein longue durée à pourvoir début 2025 2 jours de remote/sem Mise en œuvre de projets data = missions principales o Data engineering : mise à disposition des données dans le datalake au format delta lake (Azure Databricks) ▪ Conception des flux data ▪ Développement des flux data ▪ Mise en œuvre avec le superviseur des flux du monitoring de ceux-ci ▪ Intégration des tests unitaires o Coordination des intervenants SI o Rédaction de spécifications o Etudes, analyses de données et Requêtages o Développement des briques transversales o Mise en place des exigences RGPD/SSI

Freelance

Mission freelance
Data Scientist/ Scientifique des données

Phaidon London- Glocomms
Publiée le
Azure
Azure Data Factory
Databricks

6 mois
400-550 €
Paris, France

Développer et optimiser des modèles : créez des modèles d'apprentissage automatique en exploitant de solides connaissances théoriques pour sélectionner les algorithmes appropriés et optimiser les performances. Codage et évaluation de modèles : implémentez des modèles à l'aide de Python sur Databricks. Évaluez les algorithmes et les cadres pour des résultats commerciaux optimaux. Analyse et informations sur les données : utilisez Power BI pour visualiser les données et communiquer des informations exploitables aux parties prenantes. Cycle de vie ML de bout en bout : gérez le cycle de vie complet des projets d'apprentissage automatique, de la préparation des données au déploiement dans Azure Data Factory. Restez à jour : restez au courant des dernières tendances et innovations en matière de science des données et d'apprentissage automatique.

Freelance
CDI

Offre d'emploi
Consultant GCP

ADATEK
Publiée le
Docker
Google Cloud Platform
Kubernetes

3 ans
40k-60k €
400-600 €
Île-de-France, France

Le consultant GCP aura en charge de : Concevoir des architectures Cloud GCP sécurisées et évolutives pour répondre aux besoins des clients. Implémenter et déployer des solutions Cloud GCP Conseiller les clients sur les meilleures pratiques en matière de Cloud GCP et les aider à optimiser leurs investissements. Gérer et maintenir les infrastructures Cloud GCP, en assurant la disponibilité, la sécurité et les performances. Collaborer avec les équipes de développement et d'exploitation pour intégrer les solutions Cloud GCP dans les workflows existants.

Freelance

Mission freelance
Data Engineer SSIS, SSAS, SSRS Talend, GCP

HIGHTEAM
Publiée le
Google Cloud Platform
Microsoft Analysis Services (SSAS)
Microsoft SSIS

3 ans
350-450 €
Île-de-France, France

Dans le cadre du renforcement de la Data Factory, nous recherchons un Data Engineer Confirmé pour rejoindre l'un de nos clients. En tant que Data Engineer, vous serez responsable de la conception, du déploiement et de l'optimisation des pipelines de données, en garantissant la qualité et la résilience des traitements. Vous interviendrez principalement sur les technologies Microsoft (SSIS, SSAS, SSRS), tout en étant amené à travailler avec des outils complémentaires tels que Talend , Open Text et des solutions Cloud sur Google Cloud Platform (GCP) . Conception et développement de pipelines ETL : Concevoir, développer et maintenir des workflows ETL robustes et optimisés avec SSIS , en tirant parti des fonctionnalités avancées telles que la gestion des packages, l'optimisation des performances, et l'orchestration des traitements complexes. Vous assurerez l'intégration fluide des différentes sources de données et la scalabilité des processus ETL. Gestion de cubes OLAP avec SSAS : Exploiter SSAS pour développer et gérer des cubes OLAP afin de faciliter les analyses multidimensionnelles. Reporting avec SSRS : Utiliser SSRS pour créer, maintenir et faire évoluer des rapports interactifs et automatisés, en fonction des besoins des utilisateurs métiers. Analyse des besoins métiers : Analyser les besoins des utilisateurs métiers et proposer des solutions techniques adaptées. Optimisation des performances : Identifier les goulots d’étranglement dans les pipelines de données et mettre en place des solutions pour optimiser les performances. Gestion des données : Intégrer, transformer et charger des données en garantissant leur qualité et leur cohérence. Mise en place de pipelines hybrides : Mettre en œuvre et optimiser des pipelines de données dans des environnements hybrides (on-premise et cloud). Résilience et monitoring : Assurer la résilience des traitements de données et mettre en place un monitoring efficace. Collaboration : Travailler en étroite collaboration avec les équipes Data Analyst , Data Scientists , et autres Data Engineer pour répondre aux besoins métiers. Documentation et recette : Rédiger la documentation technique des pipelines et des traitements, et participer aux phases de recette pour garantir la conformité des livrables.

Freelance

Mission freelance
Chef de projet DATA

Argain Consulting Innovation
Publiée le
Data management

1 an
400-550 €
Nantes, Pays de la Loire

Ce projet s'inscrit dans une démarche stratégique visant à générer plus d'autonomie dans l'usage des données de notre client auprès des utilisateurs. Pour ce poste, il est attendu : La compréhension du périmètre métier retenu data La définition fonctionnelle de la solution L'analyse des risques métier (sécurité, J&C) et production Les hypothèses de la solution applicative et technique La frugalisation de la solution​ Les moyens de tests​ La stratégie de déploiement​ Les hypothèses de coûts (build et run)​ La roadmap et l'organisation

Freelance

Mission freelance
Senior Data Engineer

Phaidon London- Glocomms
Publiée le
Big Data
Data Warehouse
Talend

6 mois
400-600 €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons pour le compte d'un groupe international renommé un Ingénieur Données Senior pour une durée initiale de 6 mois avec possibilité d'extension. Rôle : Senior Ingénieur Data Lieu: Lyon Durée : 6 mois (extensible) Travail Hybride : 2 jours travail par semaine Date de début : Janvier/Février 2025 Principales responsabilités : Vous travaillez sur la migration de Talend vers DBT, en assurant une intégration transparente. Concevoir, développer et optimiser des pipelines de données évolutifs, des schémas et des processus pour notre nouvel entrepôt de données. Collaborer avec des équipes interfonctionnelles pour fournir des solutions de données de haute qualité. Vous êtes en charge de l'organisation et de la mise en œuvre de l'ensemble des activités de l'entreprise, de la conception à la mise en œuvre.

CDI
Freelance

Offre d'emploi
Data Engineer

Espritek
Publiée le
Google Cloud Platform
SQL
Talend

3 ans
40k-50k €
400-500 €
Ivry-sur-Seine, Île-de-France

Contexte : Nous recherchons un Data Engineer Confirmé EN PRE EMBAUCHE pour renforcer notre Data Factory. Vous aurez la charge de concevoir, déployer et optimiser des pipelines de données tout en garantissant la qualité et la résilience des traitements. Vous interviendrez principalement sur les technologies microsoft SSIS, SSAS, SSRS avec une ouverture recommandée sur Talend, OpenText et les solutions cloud de Google Cloud Platform (GCP). Description: • Concevoir, développer et maintenir des workflows ETL robustes et optimisés avec SSIS, en exploitant pleinement les fonctionnalités avancées telles que la gestion des packages, l’optimisation des performances, l’orchestration des traitements complexes et l’intégration de différentes sources de données. Collaborer avec les équipes pour assurer une mise en œuvre fluide et scalable des processus ETL. • Exploiter SSAS pour le développement et la gestion de cubes OLAP afin d'optimiser les analyses multidimensionnelles. • Utiliser SSRS pour maintenir et faire évoluer des rapports interactifs et automatisés répondant aux besoins des utilisateurs métiers. • Analyser les besoins métiers pour traduire leurs attentes en solutions techniques adaptées. • Réaliser des analyses approfondies des données pour garantir leur pertinence et répondre efficacement aux besoins identifiés. • Identifier et résoudre les goulots d’étranglement affectant les performances des pipelines de données. • Intégrer, transformer et charger les données depuis différentes sources en assurant leur qualité et leur cohérence. • Mettre en place et optimiser des pipelines de données sur des environnements hybrides (on-premise et cloud). • Assurer la résilience et le monitoring des traitements de données. • Collaborer avec les équipes Data Analysts, Data Scientists et autres Data Engineers pour répondre aux besoins des métiers. • Rédiger la documentation technique associée aux pipelines et aux traitements. • Participer aux phases de recette et garantir la conformité des livrables.

Freelance

Mission freelance
SRE / SITE RELIABILITY ENGINEER

ESENCA
Publiée le
Google Cloud Platform
Kubernetes

1 an
400-450 €
Lille, Hauts-de-France

Synthèse des principaux attendus de la mission : - Déployer et maintenir les infrastructures cloud (GCP, Cloud data bases...) - Supporter l’équipe dans le déploiement de leurs applications (Kubernetes sur GKE) - Mettre en place et suivre le monitoring des différentes applications (Datadog) - Continuer le déploiement de la stratégie d'infrastructure as code (Terraform) - Animer la stratégie SRE/SLO du groupe - Accompagner les product leaders et tech leaders sur toutes les problématiques techniques liées à l'architecture cloud des futures solutions - Mettre en place et animer le DRP des produits - En constante communication avec le Lead Ops et les Head of Ops de la plateforme, s'assurer du respect des bonnes pratiques en termes de Cloud, d'infrastructure et de sécurité. - Effectuer les remédiations de sécurité lorsqu'elles touchent l'infrastructure - Être force de proposition sur les sujets de monitoring, finops, amélioration continue

Freelance
CDI

Offre d'emploi
Business Analyst – Data & Transformation(H/F)

CELAD
Publiée le
Big Data

1 an
40k-45k €
450 €
Paris, France

Nous recherchons un Business Analyst spécialisé dans le domaine Data et Transformation pour intervenir sur des projets stratégiques au sein d'une grande plateforme d'assurance. Vos missions principales : En tant que Business Analyst au sein du domaine Solutions Data MAP , vous serez amené(e) à : Collaborer en mode agile avec : Les métiers de l’assurance de personnes. Les filières SI de la plateforme d’assurance. Les partenaires Data du groupe et des prestataires externes. Accompagner le Manager Produit dans : Maintenir la cohérence du produit Data en collaboration avec les tech leads et les architectes. Piloter la transformation Data et la rationalisation des outils. Animer la communauté Scrum pour prioriser le backlog des demandes liées à la transformation. Porter les exigences non fonctionnelles avec les équipes (infogérance, sécurité, habilitations). Contribuer au suivi du bon fonctionnement des solutions Data.

Freelance

Mission freelance
M365 & EntraID Security Expert (10+ years of experience)

Phaidon London- Glocomms
Publiée le
Azure
Azure Active Directory
Data management

3 ans
600-700 €
Île-de-France, France

Bonjour, Je travaille actuellement avec l'un de mes clients qui recherche un Expert en Sécurité Cloud/Expert M365, avec un fort accent sur la conformité en matière de sécurité, la sécurité des identités et la sécurité des infrastructures. Certifications requises : SC-400 AZ-500 SC-200 Responsabilités : Sécuriser les services SaaS Microsoft M365 et EntraID Directory. Intégrer, maintenir et supporter les solutions de sécurité Microsoft Cloud. Rédiger des documentations techniques, des fichiers d'architecture et des offres de service. Évaluer et challenger les solutions techniques pour les aligner avec les meilleures pratiques en matière de sécurité et les besoins métiers. Collaborer avec la gestion des risques IT afin d’assurer la conformité avec les normes de sécurité. Expertise : Solide connaissance d'Azure AD, M365, Microsoft Information Protection (MIP) et Defender pour O365. Maîtrise des outils de sécurité Azure (Key Vault, HSM géré, Defender pour Cloud, etc.). Expertise des standards IAM et des protocoles d'authentification cloud (SAML, OAuth, OIDC). Les entretiens peuvent être organisés rapidement. Si vous êtes intéressé, merci de m'envoyer votre CV à jour, votre TJM et votre période de préavis. Cordialement, 4o

Freelance

Mission freelance
Architecte Data Solution - CIB

ABSIS CONSEIL
Publiée le
Architecture
Big Data
Domain Driven Design (DDD)

3 ans
700-750 €
Paris, France

Nous recherchons un Architecte Data Solution expérimenté ayant des expérience au sein du secteur bancaire CIB. Vos missions : Mise en place du data mesh en temps réel pour gérer les flux de données Travailler sur des modèles de données normalisés tels que Common Domain Model (CDM) et Financial Products Markup Language (FPML) pour standardiser les processus Architecture hexagonal et DDM : conception et mise en oeuvre des architectures hexagonales basées sur le Distributed Data Management Pré-requis : bac + 5 école d'ingénieur ou équivalent Plus de 10 ans d'expérience en tant qu'Architecte Data Solution avec une ou plusieurs expérience dans le secteur bancaire, idéalement CIB vous avez obligatoirement travailler sur la mise en place du data mesh , travailler sur le CDM, FPML et l'architecture hexagonal (DDM) Maitrise de l'anglais maitrise de la stack technique big data : Kafka, Hive, Spark et Oozie

Freelance

Mission freelance
Data ingénieur - Python - GCP

Archytas Conseil
Publiée le
BigQuery
CI/CD
Google Cloud Platform

12 mois
100-550 €
Lille, Hauts-de-France

Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.

Freelance

Mission freelance
Data Engineer H/F

SMARTPOINT
Publiée le
Apache Kafka
Google Cloud Platform
Python

6 mois
400-500 €
Paris, France

• Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies.

Freelance

Mission freelance
Data Engineer H/F

SMARTPOINT
Publiée le
Apache Kafka
Google Cloud Platform
Python

12 mois
100-450 €
Paris, France

• Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies.

Freelance

Mission freelance
Data Engineer (GCP, DBT, SQL,Spark, Scala)

Cherry Pick
Publiée le
Apache Spark
Google Cloud Platform
Scala

3 mois
550-600 €
Paris, France

Cherry Pick est à la recherche d'un Data Engineer pour l'un de ses clients dans le secteur du luxe. Missions: Concevoir et développer des pipelines de données performants pour répondre aux besoins spécifiques du secteur du luxe. Traiter et transformer des données massives en utilisant Spark et Scala. Implémenter et maintenir des modèles de transformation avec DBT et SQL. Collaborer avec les équipes métiers pour comprendre et traduire leurs besoins en solutions techniques. Optimiser les processus de gestion des données sur GCP (BigQuery, Cloud Storage, Dataflow, etc.). Garantir la qualité et la fiabilité des données tout au long du cycle de vie.

716 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous