Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 364 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Data Engineer DevOps Expert IAM

ARDEMIS PARTNERS

Contexte Notre client a lancé un large programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI. Le programme, comporte plusieurs objectifs, dont celui de la mise en place de la plateforme Data & IA, qui a vocation à devenir le coeur du SI. La Domaine DataHub, au sein de la Direction Data a la responsabilité de la réalisation de « Comptoirs de Données » et référentiels pour les différents métiers. Depuis juin 2020, notre client a lancé une transformation agile à l’échelle en passant tous les projets de la DSI sur le framework SAFe. Les équipes agiles sont maintenant embarquées dans des trains, qui sont cadencés par des Programme Increment (PI). Mission Etre en mesure de leader plusieurs Data Engineers afin de livrer le maximum de valeurs, tout en respectant les principes d'architecture Participer avec les TLs & Dev Seniors des autres comptoirs des données, à l'harmonisation du socle comptoirs des données, ainsi que le déroulement de la roadmap des décommissionnements des applications legacy du socle. • Une expérience significative dans le développement en environnement Cloud, de préférence AWS • Bonnes pratiques DevOps ; • Manipulation des technologies (connaissances et pas maitrise) et des ressources as-a-service via (*-as-code) ; • Utilisation collaborative d’un même code source ; • Manipulation des outils DevOps (Git, Jenkins, Gitlab-CI, Docker, Kubernetes, Ansible, Terraform, Helm…) ; • Très bonne connaissance du Langage SQL ; • Connaissance sur les environnements et les problématiques DATA (chaines DataOps, qualité de données, ETL, etc.) : • Bonne connaissances autour de l'orchestration et scheduling de tâches (Control/M, Apache Airflow, Ooozie, Kubeflow, EMR) ; • Bonne connaissance des problématiques API (OpenAPI swagger, Jason web token, API management ; • Maitrise des processus et des outils d'ingestion, transformation et chargement de données (AWS Glue, AWS Lambda, EMR…) ; • Maitrise des outils data streaming (AWS Kinesis, Kafka…) ; • Maitrise des bases analytiques et bases NoSQL (Redshift, ElasticSearch, AWS Athena, AWS RDS) ; • Maitrise du Stockage objet (AWS S3) ; • Bonne connaissance de la gestion des droits et habilitation sur des supports de données variés (SGBDR, AWS, IAM, AWS KMS, Apache Ranger, Sentry) ; • Gouvernance de la donnée (datalineage, cataloging, Apache Atlas…) • Machine learning (Spark, services ML AWS, ElasticSearch) Certifications requires : * au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0

Démarrage Dès que possible
Durée 3 mois
Salaire 40k-59k €⁄an
TJM 100-520 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Data Engineer GCP Confirmé

DATSUP

Nous recherchons un Data Engineer GCP pour un client dans le secteur média pour renforcer une équipe data. Votre mission : optimiser l’exploitation des données pour améliorer les offres digitales, assurer une collecte conforme, enrichir l’expérience utilisateur et fournir des outils analytiques aux équipes internes. Adossée à une plateforme cloud, l’équipe développe un produit centralisant les données avec une stack moderne ( SQL, DBT, Airflow, GCP, Python ) en visant performance, qualité et industrialisation.

Démarrage Dès que possible
Durée 12 mois
Salaire 10k-50k €⁄an
TJM 100-500 €⁄j
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance
CDI

Data Engineer Dataiku

VISIAN

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Dataiku. Le data engineer sera amené, en s’appuyant sur notre plateforme Dataiku, à : · Développer et opérer les pipelines de mise à disposition des référentiels · Développer les contrôles de data quality et d’alerting selon les spécifications du propriétaire des données · Assurer la mise en production et le suivi post-MEP des traitements développés ; De la veille et la formation Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia

Démarrage Dès que possible
Durée 2 ans
Salaire 40k-70k €⁄an
TJM 400-650 €⁄j
Télétravail Télétravail partiel
Lieu Guyancourt, Île-de-France
Freelance

Data engineer (H/F)

Insitoo Freelances

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer (H/F) à Hauts-de-France, France. Les missions attendues par le Data engineer (H/F) : - participer aux opérations de build sur les environnements Big Data basées sur Google Cloud. - concevoir et développer les nouveaux flux de données (batch et temps réel) en étroite collaboration avec l'équipe actuelle de Data Engineer, Data Scientist et les équipes métiers. - Analyser les besoins des métiers et les traduire en spécifications techniques (en contribuant également à l'élaboration des contrats d'interface et à la modélisation physique) - Développer des pipelines de données au sein de son périmètre - Veiller à la qualité et l'efficience des développements de l'équipe - Contribuer à la construction de la plateforme data et des services en remontant les besoins non couverts par le framework - Travailler en étroite collaboration avec l'équipe actuelle de Data Engineers, Data Scientists et les équipes métiers. Votre profil : - Expérience significative dans l'utilisation des systèmes cloud GCP et de ses services dans des projets Data. (Bigquery, GCS, Pubsub, Cloud function, Composer etc...) - Expérience avec les processus de transformation des données DBT - Connaissance du langage Python et de composer - Excellentes connaissances du SQL et des grands principes de modèle de données - Compréhension des enjeux du Retail dans ses composantes principales (Customer , Product , Supply Chain, Commerce (Web&Store), Human Resources ) - Sensible aux méthodes de travail agiles. - Autonome, curieux et proactif

Démarrage Dès que possible
Durée 2 ans
TJM 400-450 €⁄j
Télétravail Télétravail partiel
Lieu Hauts-de-France, France
Freelance

Data Engineer AWS

PARTECK INGENIERIE

Contexte : Nous recherchons pour l'un de nos clients, un Data Engineer (H/F) afin de renforcer son pôle AI Experts, qui intervient sur des sujets impactant directement son business et l'expérience client, afin d'optimiser la personnalisation, le taux de conversion et les assets. Description : Grâce à ses compétences alliant Développement Big Data, appétences pour les modèles d’IA et Architecture Applicative, le Data Engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables : . Définir et analyser des structures de données, . Contribuer aux assets des différentes équipes produits pour interconnecter et collecter les données, . Mettre à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données), . Être garant de la production (mise en place de monitoring, d'alerting et intervention si nécessaire), . Développer et maintenir le continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés), . Construire l’architecture cloud AWS qui hébergera notre infrastructure existante ou future, . Présenter et expliquer les réalisations à des publics métiers et techniques.

Démarrage Dès que possible
Durée 2 ans
TJM 100-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Data Engineer

XPEHO

Ton quotidien : ⭐ Être garant de l'accès qualitatif aux données 📈, ⭐ Analyser les besoins des utilisateurs et proposer des solutions innovantes et en phase avec les drivers de l'entreprises, ⭐ Réaliser la publication des données dans le Cloud, ⭐ Participer à la construction des modèles de données à mettre en œuvre (Alimentation, stockage, modélisation, restitution), ⭐Validera la qualité des développements de son équipe, ⭐ Définir la politique de la donnée et de son cycle de vie 🧬. 🏅 𝐓𝐞𝐬 𝐚𝐭𝐨𝐮𝐭𝐬 𝐩𝐨𝐮𝐫 𝐫𝐞́𝐮𝐬𝐬𝐢𝐫 Être force de proposition sur d’éventuelles innovations Capacité à travailler en interdépendance avec d’autres équipes Volonté d’évoluer dans un environnement agile et dynamique

Démarrage Dès que possible
Durée 1 an
Télétravail Télétravail partiel
Lieu Villeneuve-d'Ascq, Hauts-de-France
Freelance

Data engineer (H/F)

Insitoo Freelances

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Date engineer (H/F) à Lyon, France. Contexte : Analyser des solutions EAM proposées par les éditeurs et évaluer leur impact sur les données Les missions attendues par le Data engineer (H/F) : Analyse des solutions éditeurs Conception des stratégies de migration Réaliser des mappings complexes Exploiter les services managés AWS Mise en oeuvre d'un POC Automatisation du déploiement et des contrôles Mise en place du reporting et tableaux de bords Compétences attendues : Expertise AWS confirmée (DMS, Glue, SCT) Expertise ETL Expérience AWS Pilotage par reporting

Démarrage Dès que possible
Durée 2 ans
TJM 100-600 €⁄j
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance
CDI

DATA ENGINEER - connaissances DBT obligatoire

PRIMO CONSULTING

Nous recherchons pour l'un de nos grands comptes, un Data Engineer. Vous trouverez ci-dessous le descriptif du poste : La prestation du data engineering consistera à participer à : La mise en place de pipelines de traitement de données Le développement des modèles de données L’extraction et l’exposition des données du Data Lake vers d’autres services L’industrialisation des projets sur la GCP La participation active aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe Expertises requises pour la réalisation de la prestation : Au moins 1 an d’expérience dans un environnement data Compétences solides en data : structures de données, code, architecture Connaissance de l’un des Cloud Provider Public : de préférence GCP Connaissance de DBT obligatoire Références professionnelles sur des projets Big Data : de préférence Pyspark, BigQuery et dbt Compétences en SQL et Python Expertises dans la mise en place de pipeline ETL / ELT Bonnes connaissances de Gitlab et Gitlab CI/CD Forte capacité à vulgariser et à communiquer sur des aspects purement techniques Pratique des méthodes Agile (Scrum, Kanban)

Démarrage
Durée 12 mois
Salaire 46k-60k €⁄an
TJM 450-560 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Data Engineer - Sophia Antipolis

Tenth Revolution Group

Bonjour à tous, Mon client recherche un data engineer pour un poste dans un environnement full Azure. Les missions principales : Au sein de la DSI, vous travaillerez essentiellement à la conception et l'optimisation des pipelines sur Azure Data Factory. Une connaissance complète de Fabric est attendue (Azure Data Factory et synapse pour le volume de données). La mission est une mission classique de Data engineering avec une certaine dimension de conception de dashboards sur PowerBI. Le recueil de besoin de certaines équipes métiers peut entrer dans le day-to-day job. La mission demande l'implémentation des processus ETL/ELT robustes et performants, la modélisation de donnée, la mise en place d'une gouvernance et une documentation des Best Practices

Démarrage Dès que possible
Durée 3 mois
TJM 270-530 €⁄j
Télétravail Télétravail partiel
Lieu Sophia Antipolis 1, Provence-Alpes-Côte d'Azur
CDI

Data Engineer expérience GCP domaine banque

ARDEMIS PARTNERS

Mission pour un profil de 2 / 3 ans d'expérience environ hors stages / alternance (budget correspondant), pas de profil senior svp. Mission longue renouvelée par période de 3 mois. Dans le cadre de l’industrialisation des projets Data Science pour un client bancaire, nous recherchons un Data Engineer expérimenté maîtrisant l’environnement GCP. Vous interviendrez au sein d’une équipe agile et serez en charge de la conception, de la mise en place et de l’optimisation des pipelines de données. Missions Principales Concevoir, développer et maintenir des pipelines de données robustes et scalables sur Google Cloud Platform (GCP). Assurer l'industrialisation et la mise en production des modèles de Data Science. Automatiser et optimiser les processus de traitement et de transformation des données. Gérer les infrastructures et les workflows de données en environnement cloud. Collaborer avec les Data Scientists et les équipes métier pour garantir la performance et la fiabilité des solutions mises en place. Appliquer les bonnes pratiques DevOps et CI/CD pour l’intégration et le déploiement continu. Assurer la qualité, la sécurité et la conformité des données.

Démarrage Dès que possible
Salaire 20k-37k €⁄an
Télétravail Télétravail partiel
Lieu Aix-en-Provence, Provence-Alpes-Côte d'Azur
Freelance

Data Engineer Snowflake

SILKHOM

·Vous développez et faites évoluer un Data Warehouse ainsi que des DataMarts en lien avec des données financières. ·Vous concevez et optimisez des requêtes SQL complexes ainsi que des procédures stockées sur Snowflake pour garantir des performances optimales. ·Vous étudirez la structure des tables SAP afin de comprendre et transformer les données avec précision tout en assurant un mapping efficace. Pourquoi rejoindre cette mission ? ·Construction et déploiement de A à Z d’un Data Warehouse et de DataMarts ·Environnement Technique récent : CI/CD, Snowflake, Azure DevOps … ·Flexibilité et autonomie : Une mission ajustable à vos compétences et un télétravail partiel (2 jours/semaine) possible.

Démarrage Dès que possible
Durée 6 mois
TJM 400-500 €⁄j
Télétravail Télétravail partiel
Lieu Courbevoie, Île-de-France
Freelance
CDI

Data Engineer Snowflake

VISIAN

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Snowflake : Dans le cadre d’un projet financier stratégique, nous recherchons un Senior Data Engineer pour contribuer activement à la conception, la mise en place et l’optimisation de notre Data Warehouse (DWH) et de nos DataMarts. Ces infrastructures sont essentielles au bon fonctionnement de notre outil EPM (Board) et des solutions dédiées à l’audit financier. Le candidat sélectionné travaillera en collaboration avec des équipes transverses afin d'assurer une intégration et une transformation des données sans faille. Responsabilités : Concevoir, développer et maintenir des Data Warehouses et DataMarts scalables basés sur des données financières. Développer et optimiser des requêtes SQL complexes et des procédures stockées sur Snowflake. Travailler avec des données issues de SAP, comprendre leurs structures et assurer une cartographie et transformation précises. Utiliser Azure Data Factory pour la gestion et l’orchestration des pipelines de données. Collaborer avec les équipes DevOps pour l’implémentation de CI/CD pipelines en utilisant Azure DevOps. Assurer la qualité et l’intégrité des données tout au long du processus ELT. Compétences techniques requises : Expérience : Minimum 5 ans sur des projets de DWH et DataMarts. Expertise avancée en Snowflake et procédures stockées. Maîtrise de l’intégration et de l’automatisation via Azure DevOps CI/CD. Expérience confirmée avec les données SAP, en particulier sur la compréhension des structures de tables SAP et leur transformation. Soft Skills : Résolution de problèmes : Capacité analytique avancée pour identifier et résoudre des problèmes complexes de gestion de données. Communication et collaboration : Capacité à travailler en étroite collaboration avec les équipes Finance, IT et DevOps pour garantir l'alignement des solutions techniques avec les besoins métier. Expérience en méthodologie Agile/Scrum, Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia

Démarrage Dès que possible
Durée 2 ans
Salaire 40k-75k €⁄an
TJM 400-650 €⁄j
Télétravail Télétravail partiel
Lieu La Défense, Île-de-France
Freelance
CDI

Data Engineer confirmé (3 à 7 ans d’expérience)

Archytas Conseil

Dans le cadre d’un programme de transformation data au sein d’un acteur majeur du secteur de la distribution, nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer les équipes d’une plateforme Data structurée autour d’une architecture « data-centric ». Cette plateforme vise à décloisonner les silos d’information et à fournir des données en temps réel via API à l’ensemble de l’écosystème métier et SI, dans une logique de convergence entre décisionnel et opérationnel. Vos responsabilités Intégré(e) à l’équipe data, vous serez chargé(e) de concevoir, développer et maintenir des pipelines de traitement de données à grande échelle, en environnement cloud. Vous interviendrez à la croisée des enjeux techniques et métiers, dans un environnement résolument agile et orienté performance. Missions principales développer et maintenir des flux de données batch et temps réel (BigQuery, BigTable, Apache Kafka, Apache Spark) concevoir des pipelines évolutifs et robustes en lien étroit avec les équipes techniques optimiser les processus d’acquisition, de transformation et de stockage des données assurer la haute disponibilité et les performances en production dans une démarche DevOps contribuer à la définition de l’architecture microservices et à l’amélioration continue rédiger et maintenir les tests unitaires et d’intégration produire des livrables de qualité et assurer un reporting clair et régulier proposer des pistes d’amélioration (refactoring, simplification, industrialisation) Compétences techniques requises langages : très bonne maîtrise de Java ; la connaissance de Scala est un atout apprécié, mais non bloquant traitement de flux et Big Data : bonne expérience avec Apache Kafka et Apache Spark cloud : expérience sur GCP (BigQuery, Dataproc, Kubernetes...) ou environnement cloud équivalent CI/CD : pratique de Git et des outils d’intégration/déploiement continus (GitLab CI/CD ou similaire) architecture & DevOps : bonne culture des microservices et des pratiques DevOps qualité logicielle : rigueur dans l’écriture de tests et dans le maintien de la qualité du code Soft skills attendus esprit d’équipe et capacité à collaborer dans un environnement distribué communication fluide, écrite comme orale sens de l’analyse et capacité à challenger l’existant avec bienveillance autonomie et proactivité dans la résolution de problèmes

Démarrage
Durée 12 mois
Salaire 10k-30k €⁄an
TJM 200-400 €⁄j
Télétravail Télétravail 100%
Lieu Casablanca, Casablanca-Settat, Maroc
Freelance

Lead Data Engineer Senior

PROPULSE IT

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Démarrage Dès que possible
Durée 24 mois
TJM 450-900 €⁄j
Télétravail Télétravail partiel
Lieu Paris, Île-de-France
CDI

Data Engineer TALEND (H/F)

Amiltone

Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : • Comprendre et traduire les besoins métiers : Animer et collaborer étroitement avec les experts métier au travers d'ateliers d'idéation pour identifier les problématiques opérationnelles afin de proposer des solutions à mettre en œuvre, • Analyser et explorer les données : Comprendre, analyser et valoriser les données de différentes natures • Définir les modèles : Sélectionner ou créer les modèles mathématiques les plus pertinents et adaptés à chaque problématique, et réaliser leur apprentissage, • Déployer les modèles : Collaborer avec les équipes de Data Ingénierie au déploiement des modèles entrainés en production, et accompagner les équipes de développement produit dans leur utilisation, • Analyser les performances des modèles : Assurer la mesure de la performance et le suivi de la dérive des modèles en production. Reporter sur la performance opérationnelle des modèles au travers d'indicateurs clés et les partager avec les directions métiers, Compétences requises : • Maitrise de TALEND • Analyse de données • Méthode de classification supervisée et non supervisée (DBSCAN, Random Forest, boosted trees, etc.) et de Deep Learning, Langage python et SQL, • Anglais obligatoire

Démarrage Dès que possible
Salaire 35k-40k €⁄an
Télétravail Télétravail partiel
Lieu Clermont-Ferrand, Auvergne-Rhône-Alpes
Freelance

Data Engineer Teradata / Informatica (HF)

SMARTPOINT

La prestation concerne la prise en charge de bout en bout des demandes de data. Le/la consultant(e) sera en lien direct avec l'ensemble des métiers sans intermédiaire et devra être en capacité de délivrer les développements attendus. Il/elle devra challenger les besoins et être force de proposition dans les solutions attendues. Il/elle se verra affecter un portefeuille de demande et devra être en capacité d’organiser son plan de charge en fonction de ses engagements et la disponibilité de ses interlocuteurs. Il/elle devra avoir une démarche agile, à savoir délivrer par itération et privilégier une approche de type « prototypage ». L’équipe est répartie en plusieurs « cellules » pour les activités suivantes : Appui au Pilotage Production Projets Agiles Projets Industriels Projets Industriels : Prendre en charge les demandes de data complexe (croisements, enrichissements de fichiers, rapprochement, intégration, modélisation, mise en qualité) Participer ou organiser des ateliers métiers, recueil et analyse des besoins, Modéliser les traitements en mode industriel Réaliser la recette qualitative et quantitative Accompagner le métier dans la phase de validation Communiquer à toutes les phases du projet Réaliser la documentation (EB, Cahier de Recette) Présenter le sujet aux autres équipes (Fiche synthétique projet, Présentation .ppt, Communication par email, …) Accompagner les autres membres de l’équipe dans la phase de modélisation Assurer la gouvernance de la donnée Production : Maintien en condition opérationnelle en effectuant le suivi de production, mise à jour de la documentation, optimisation et correction des traitements afin de respecter les bonnes pratiques en vigueur, rattrapages et relances auprès des partenaires internes et externes pour fiabiliser les échanges Prend en charge les demandes de data simples (croisements, production de listing, enrichissement de fichiers) Participe à des ateliers métiers, recueil et analyse des besoins, Développe et déploie les traitements en mode agile Communication en cas d’incident Assure la permanence, l’assistance et le support utilisateurs (questions, incidents, etc.) Projets Agiles : Prend en charge les POC et projets data en mode agile (croisements, enrichissements de fichiers, rapprochement, intégration, modélisation, mise en qualité) Participe ou organise des ateliers métiers, recueil et analyse des besoins, Modélise, développe et déploie les traitements en mode agile Réalise la recette qualitative et quantitative Accompagne le métier dans la phase de validation Communique à toutes les phases du POC / projet Livrables attendus : Documentation (exigences logiciels, standards et bonnes pratiques) Exigences Fonctionnelles Guides utilisateurs Rapport de test Spécifications fonctionnelles Spécifications techniques

Démarrage Dès que possible
Durée 6 mois
TJM 400-500 €⁄j
Télétravail Télétravail partiel
Lieu Bagneux, Île-de-France

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous