Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 543 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Chef de projet junior - Grenoble

STHREE SAS pour HUXLEY
Publiée le
Big Data

1 an
300 €
Grenoble, Auvergne-Rhône-Alpes

Notre client recherche un chef de Projet/Business Analyst pour le déploiement du catalogue de données DATA GALAXY. • Piloter la mise en oeuvre de DataGalaxy dans l'écosystème client : Planning, Animation des réunions (Kick-Off, réunion de suivi, support aux ateliers...), gestion des ressources • Monter en compétences sur l'outil pour participer aux activités de rédaction, formation et accompagnement des équipes • Participer à la rédaction des Guidelines (aide à la prise de décision, design et test des solutions possibles dans Data Galaxy) • Être un support des équipes techniques et Data office dans leurs tâches sur l'outil.

Freelance

Mission freelance
AWS Plateform Engineer

CS Group Solutions
Publiée le
AWS Cloud

3 mois
500-650 €
Paris, France

Nous recherchons un AWS Plateform Engineer Mission : Maitrise en profondeur les concepts du Well Architecture Framework du Cloud AWS Sera amené à définir / construire / faire évoluer et exploiter une plateforme sur AWS permettant aux métiers de TotalEnergies de developper et faire tourner leurs applications Cloud. “You build it you run it” : participera aux activités de RUN liées à la plateforme Des astreintes pourraient devenir obligatoires pour des raisons opérationnelles "Infra as Code” : Développera des modules Terrraform et pipeline CICD pour deployer/configurer/gouverner l’infrastructure (aucun déploiment sera fait manuellement via la console AWS). “User centric” : sera à l’écoute des utilisateurs du produit et recherchera leur feedback, documentera pour que les utilisateurs soient autonomes dans leur utilisation de la plateforme. Maitrise la rédaction / présentation orale en Anglais. Environnement : "as code" (Terraform, CDKTF, Python, Github, Github Actions, AWS(services)) Python Shell AWS Identity (IAM, Fédération) Operate an AWS organization with hundreds of AWS accounts Github Actions and Repository Confluence / Jira Postman / Bruno SRE (Backup, Monitoring, CloudWatch, Prometheus, Grafana, Chaos monkey, SLA, SLO, etc.) CDKTF Events Driven Solutions (EventBridge, Step Functions) Git aws-cli Cybersecurity (AWS Network Firewall, WAF, SecurityHub, Config, CloudTrail, SCP, RBAC, ACM) Terragrunt Terraform (+Provider aws) FaaS (Lambda), IaaS (SSM, EC2) Network (Routing, Peering, IPAM, Direct Connect, VPN, DNS) finops

Freelance
CDI

Offre d'emploi
Data Manager – Driver Monitoring System (F/H)

CELAD
Publiée le
AWS Cloud

6 mois
60k-70k €
550-600 €
Créteil, Île-de-France

📑 CDI (65K€) / Freelance / Portage Salarial - 📍 Créteil - 🛠 Expérience de 8 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! Nous recherchons un.e Data Manager pour renforcer notre équipe dédiée à la validation du Driver Monitoring System (DMS), un système avancé de surveillance basé sur des caméras embarquées. Ce dispositif enregistre des données précieuses sur l’état de fatigue, de vigilance et de stress des conducteurs, afin d’améliorer la sécurité sur la route. Vos responsabilités : Assurer la gestion des données de validation (collecte, traitement, stockage, archivage) pour le système DMS. Tâches principales : - Collecter et stocker des données issues de disques durs provenant des véhicules (volumes massifs, incluant des vidéos en streaming). - Assurer l'archivage et estimer les coûts liés au stockage long terme des données. - Superviser le transfert des données vers les différents sites clients. - Garantir la conformité RGPD dans toutes les opérations de gestion des données. - Intégrer les données dans des bancs de test pour la validation du système. - Évaluer et mettre en œuvre des solutions Cloud (GCP, AWS, Azure).

Freelance

Mission freelance
Développeur ElasticSerach/OpenSearch

TEOLIA CONSULTING
Publiée le
AWS Cloud
Elasticsearch

36 mois
550-600 €
La Défense, Île-de-France

Réaliser la migration ElasticSearch V1.8 d'une application existante vers OpenSearch sur AWS Implémenter, développer et maintenir les fonctionnalités en JAVA/Angular 7+ Réaliser les tests unitaires et les tests de bout en bout avec l’appui du PO Participer à l’animation de l’équipe (daily meeting, atelier de partage) Produire les documents techniques correspondants (spécifications techniques) Travail dans un cadre agile Safe et participation aux rituels (PI planning, démo, …) Forte autonomie ; esprit d’analyse, de synthèse et de pédagogie ; capacités à documenter, à communiquer ainsi qu’à convaincre. Excellent relationnel, capacité à interagir aussi bien avec les équipes DEV qu’avec les équipes OPS.

Freelance

Mission freelance
📺📻 Product Owner Data Platform secteur médias

ALXDR Software Engineering
Publiée le
Apache Spark
AWS Cloud
Big Data

15 mois
500-650 €
Paris, France

📺📻 Pour l'un de nos clients du secteur de l'audiovisuel, nous recherchons une prestation de Product Owner Data. Prestation temps plein de longue durée (15 mois renouvelables 36 mois max) avec 50% de télétravail dans les locaux de notre client à Paris. Data Platform structurée en trois zones pour valoriser les données des produits numériques (streaming et offre d'information). Collecte, nettoyage, centralisation et exposition des données brutes. Transformation des données brutes en informations raffinées pour répondre aux besoins transverses. Exploitation des données raffinées pour des cas d’usage avancés : pilotage, personnalisation, et data science. L’équipe en charge de la première zone est composée d’un PO Data, de 3 Data Ingénieurs, dont un lead, et est à la recherche d’une prestation de Product Owner. 1. Collecter et prioriser les besoins - Cadrer les besoins et les objectifs pour et avec chaque partie prenante : Analyser et cadrer les exigences, puis les prioriser pour élaborer des user stories claires et pertinente. - Maintenir le backlog produit à jour en fonction des priorités et des besoins des parties prenantes. - Identifier les améliorations en continue sur les produits et processus de l’équipe - Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités. 2. Gestion du Produit - Coordonner les différentes étapes de développement, de l'idéation à la réalisation - Rédiger et recetter les user stories en fonction des besoins - Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner - Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs - Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des process. - Améliorer l’exploitation et le maintien des produits en production - Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme. 3. Définition et communication de la vision produit - Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes - Animer et communiquer sur les évolutions liées à la vision du produit 4. Collaboration avec les équipes pluridisplinaires suivantes - Les équipes Data platform : les 2 équipes Data Domain, le Pilotage, la Personnalisation, la Recommandation, - les équipes en charge de la Gouvernance et de la conformité des données. - les Chefs de Projet technique de la direction du Numérique

Freelance
CDI

Offre d'emploi
Data Steward / Consultant Data Governance (H/F)

SAS GEMINI
Publiée le
Data management

1 an
50k-75k €
400-700 €
Vélizy-Villacoublay, Île-de-France

Description du poste : Nous recherchons un Data Steward/Consultant spécialisé en gestion de la gouvernance des données pour accompagner une initiative stratégique de structuration et de valorisation des données. Vous serez chargé(e) de collecter, structurer et cartographier les données dans un outil de type catalogue de données. Vous jouerez un rôle clé dans l’animation des ateliers métiers et dans l’accompagnement des équipes sur l’utilisation et l’enrichissement des métadonnées. Responsabilités principales : Collecter et analyser les besoins métiers pour la structuration des données. Réaliser la cartographie fonctionnelle et technique des cas d’usage. Mettre en place le suivi des flux de données (data lineage). Former et accompagner les équipes dans l’utilisation des outils de gouvernance des données. Produire la documentation technique et fonctionnelle.

Freelance

Mission freelance
Responsable Global du Déploiement et de la Gouvernance du Data Catalog

Focustribes
Publiée le
Data management
Project Portfolio Management (PPM)

3 mois
400-900 €
Île-de-France, France

Dans le cadre d’une transformation digitale ambitieuse, notre client, leader mondial dans son secteur, met en œuvre un programme de gouvernance des données à grande échelle. Ce projet repose sur le déploiement d’un Data Catalog global visant à harmoniser les pratiques de gestion des données entre ses équipes centrales et locales. Le Global Data Catalog Lead aura pour principales missions : • Assurer le déploiement, l’administration et l’adoption du Data Catalog dans un environnement cloud. • Piloter les opérations liées à la gouvernance des données, notamment la documentation des actifs, la gestion de la data lineage et l’optimisation des processus via des scans automatisés et des KPI de performance. • Former et animer les communautés Data (Data Owners, Data Stewards, Data Quality Managers) afin de garantir une adoption réussie des outils et processus. • Gérer la relation avec le fournisseur de la solution Data Catalog et proposer des améliorations continues. • Superviser la consommation de l’outil et sa gestion FinOps. Ce rôle stratégique est au cœur des initiatives Data de l’entreprise et contribue directement à l’optimisation des processus et à la qualité des données dans un environnement complexe et international.

Freelance

Mission freelance
Freelance - Architecte DevOps Sénior H/F

Jane Hope
Publiée le
AWS Cloud
Azure

6 mois
600-700 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

En tant qu'Architecte DevOps Senior, vous jouerez un rôle clé dans la transformation technique et organisationnelle de notre SI. Vous serez amené(e) à : Collaborer avec les équipes Infrastructure et Logiciel pour assurer le Maintien en Condition Opérationnelle (MCO) du SI tout en optimisant les architectures techniques ON-PREM et CLOUD . Maintenir et améliorer la chaîne CI/CD , en garantissant sa robustesse, sa fiabilité et sa scalabilité. Concevoir et industrialiser des infrastructures DevOps modernes, incluant le provisioning réseau, la sécurité, et les infrastructures sous-jacentes. Travailler en synergie avec les équipes Cybersécurité pour garantir un environnement sécurisé et conforme. Assurer la cohérence des choix architecturaux en étroite collaboration avec les architectes DEV et OPS . Participer activement à la résolution des incidents de production, en analysant les causes et en proposant des solutions durables.

Freelance
CDD

Offre d'emploi
Product Owner Big Data - SQL - RGPD - CNIL

YGL consulting
Publiée le
AWS Cloud
Google Cloud Platform
SQL

12 mois
40k-45k €
400-650 €
Paris, France

La Direction Data met en œuvre l’ensemble de la chaîne de traitement et de valorisation des données pour en accélérer l’usage. Elle accompagne les différentes offres et la croissance des offres (Acquisition, Réseaux sociaux, Partenariats, CRM) dans le développement d’outils de pilotage, la compréhension des usages et l’amélioration de l’expérience utilisateurs. Pour maximiser la valeur ajoutée issue de nos données, nous avons mis en place une Data Platform structurée en trois zones : - Une zone Bronze qui collecte, nettoie, centralise, et expose la donnée brute - Une zone Silver qui transforme les données brutes en données raffinées pour servir tous les usages métiers dans leur ensemble - Une zone Gold qui transforme les données raffinées pour servir les cas d’usages métiers du pilotage, de la personnalisation et de la data Science L’équipe en charge de la zone Bronze est l’équipe big Data composée d’un Product Owner Data, de 3 Data Ingénieurs, dont un lead, et est à la recherche d’une prestation de Product Owner. Missions de l’équipe Big Data - Conception et maintenance de la zone Bronze : Gérer les données brutes, de leur collecte à leur centralisation, en assurant leur nettoyage, - Intégration en continue : Assurer l’intégration, le nettoyage et la validation continue des données, - Optimisation des flux de données : Améliorer les pipelines pour garantir des traitements efficaces et scalables, - Veille technologique : Intégrer les meilleures pratiques et innovations en Big Data pour optimiser la gestion de données brutes.

Freelance

Mission freelance
LEADER BIG DATA anglais courant - Toulouse H/F

Cheops Technology
Publiée le
Big Data
Teradata

2 ans
400-550 €
Toulouse, Occitanie

Experienced data technical leader with ETL and reporting tool skills, to join the Revenue Team Tech lead role, drive the team of technical topics, assist them, give guidelines… Helop on the current project backlog (corrections & new features) Within a 8 people team Mainly innovation proposition Daily interaction with business team in Paris and Amsterdam (business trips can happen) SQL (Teradata) : 50% ETL Powercenter :15% Big Data : 10% Linux : 10% Reporting tool (SAP 4BI & Spotfire) : 10% Others (ControlM, Jira…) : 5% Leader technique de données expérimenté avec des compétences ETL et outils de reporting, pour rejoindre l'équipe Rôle de Tech Lead, piloter l'équipe sur les sujets techniques, les assister, donner des lignes directrices… Aide sur le backlog du projet actuel (corrections et nouvelles fonctionnalités) Au sein d'une équipe de 8 personnes Proposition principalement d'innovation Interaction quotidienne avec l'équipe commerciale à Paris et Amsterdam (des voyages d'affaires peuvent avoir lieu)

Freelance
CDI

Offre d'emploi
Ingénieur.e Infrastructure Big Data AWS

Atlanse
Publiée le
Apache Airflow
AWS Cloud
Big Data

3 ans
40k-65k €
400-600 €
Île-de-France, France

Vous interviendrez au sein de l’équipe Data et serez chargé.e de concevoir, déployer et optimiser les environnements techniques permettant le traitement des données. Vous assurerez la fiabilité, la scalabilité et la sécurité des infrastructures Big data. Votre rôle Conception et déploiement d’infrastructures Big Data · Concevoir et déployer des architectures distribuées pour les plateformes Big Data · Intégrer les solutions Big Data dans des environnements cloud AWS · Assurer la scalabilité et la haute disponibilité des infrastructures Automatisation et maintenance des environnements · Automatiser le déploiement des environnements · Maintenir et mettre à jour les environnements existants, en assurant leur stabilité et leur performance · Gérer les pipelines CI/CD pour l’intégration continue des workflows Big Data Surveillance et sécurité des systèmes · Surveiller la performance des systèmes · Garantir la sécurité des infrastructures Big Data · Implémenter des mécanismes de sauvegarde et de récupération des données Collaboration et support technique · Collaborer avec les équipes Data (data engineers, data scientists) pour comprendre les besoins métier · Apporter un support technique aux équipes en cas de dysfonctionnement ou d’incidents sur les systèmes Big Data Veille technologique et amélioration continue · Suivre les évolutions des technologies Big Data et des bonnes pratiques · Proposer des améliorations pour anticiper les besoins futurs de l'entreprise

Freelance

Mission freelance
SAP FICO - project manager

RED Commerce - The Global SAP Solutions Provider
Publiée le
Data management
Finance
SAP

3 mois
300-800 €
Luxembourg

RED Global est à la recherche d’un consultant SAP FI pour venir rejoindre les équipes de l’un de nos clients au Luxembourg dans le cadre de leur projet en cours. Compétences requises : • Expérience de 4 ans minimum sur SAP FI • Manager un projet de Data migration Détails du projet : • Démarrage : Janvier 2025 • Durée : Contrat initial de 6 mois – dont 3 mois 100% on site puis Full remote • Charge de travail : 5 jours par semaine • Lieu : 3 mois 100% on site au LUXEMBOURG puis Full remote • Langues : Français et anglais obligatoire Si vous souhaitez recevoir de plus amples informations sur le poste ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter via mail avec votre CV à jour en format Word sur

Freelance
CDI

Offre d'emploi
DATA ENGINEER APACHE/FLINK

UCASE CONSULTING
Publiée le
Apache
AWS Cloud

6 mois
40k-45k €
400-550 €
Paris, France

Nous recherchons un(e) Ingénieur(e) Data/Expert(e) Apache Flink passionné(e) par le traitement de données en flux et par lots. Vous serez chargé(e) de contribuer au développement, à l’optimisation et à la maintenance d’applications Apache Flink, tout en collaborant étroitement avec des équipes multidisciplinaires. Ce poste vous permettra de travailler sur des projets stratégiques liés au traitement des données, en garantissant des performances élevées, une grande évolutivité et une fiabilité optimale des applications Flink en production. Développer et déployer des applications Apache Flink pour le traitement par lots et en flux. Assurer la maintenance des pipelines Flink en production et optimiser leurs performances. Déployer et configurer un cluster Flink prêt pour la production, optimisé pour l’évolutivité et la tolérance aux pannes. Mettre en place et configurer des outils de surveillance et d’alertes (ex. : Prometheus, Grafana). Identifier et résoudre les problèmes liés aux performances et aux échecs des tâches Flink. Fournir une documentation détaillée (architecture, tuning, troubleshooting, meilleures pratiques). Animer une session de transfert de connaissances avec les équipes internes. Familiarité avec l’écosystème Big Data et les meilleures pratiques d’ingénierie des données. Sens de la collaboration et capacité à transférer des connaissances à une équipe technique. Profil recherché Expertise technique : Maîtrise d’Apache Flink pour le traitement par lots et en flux. Excellentes compétences en programmation : Java ou Scala, et SQL. Bonne connaissance des technologies Big Data : Hadoop et Spark. Expérience confirmée dans l'utilisation des services de données AWS. Expérience professionnelle : Participation à des projets de production avec Apache Flink. Démonstration de la capacité à optimiser des pipelines Flink pour des performances élevées.

CDI
Freelance

Offre d'emploi
Data Analyst (H/F)

VISIAN
Publiée le
AWS Cloud
Dataiku
DAX

1 an
40k-45k €
400-500 €
Montpellier, Occitanie

Contexte • Mission : Support transverse pour améliorer la performance opérationnelle des métiers via la valorisation des données. • Objectifs : Maintenir et développer des tableaux de bord Power BI pour des besoins métiers variés, améliorer la qualité des données et sensibiliser les métiers à leur importance. • Livrables attendus : Tableaux de bord Power BI, alertes qualités ciblées, vues / datasets spécifiés pour développement par le Data Engineer, et plans de test pour recette, supports et comptes-rendus des réunions avec les métiers, reporting projet, documentation des tableaux de bord, des règles qualités, des règles métiers, des erreurs rencontrées en production. • Lieu et télétravail : Montpellier, 3 jours sur site / 2 jours de télétravail • Début : Entretiens à partir du 03/01/2025.

Freelance

Mission freelance
Chef de projet DATA

Argain Consulting Innovation
Publiée le
Data management

1 an
400-550 €
Nantes, Pays de la Loire

Ce projet s'inscrit dans une démarche stratégique visant à générer plus d'autonomie dans l'usage des données de notre client auprès des utilisateurs. Pour ce poste, il est attendu : La compréhension du périmètre métier retenu data La définition fonctionnelle de la solution L'analyse des risques métier (sécurité, J&C) et production Les hypothèses de la solution applicative et technique La frugalisation de la solution​ Les moyens de tests​ La stratégie de déploiement​ Les hypothèses de coûts (build et run)​ La roadmap et l'organisation

Offre premium
Freelance

Mission freelance
Senior Data Engineer - Azure & Power BI

BLOOMAYS
Publiée le
Azure Data Factory
Databricks
Microsoft Power BI

6 mois
500-550 €
Gennevilliers, Île-de-France

Mission temps plein longue durée à pourvoir début 2025 2 jours de remote/sem Mise en œuvre de projets data = missions principales o Data engineering : mise à disposition des données dans le datalake au format delta lake (Azure Databricks) ▪ Conception des flux data ▪ Développement des flux data ▪ Mise en œuvre avec le superviseur des flux du monitoring de ceux-ci ▪ Intégration des tests unitaires o Coordination des intervenants SI o Rédaction de spécifications o Etudes, analyses de données et Requêtages o Développement des briques transversales o Mise en place des exigences RGPD/SSI

543 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous