Trouvez votre prochaine offre d’emploi ou de mission freelance DAT à Paris

Votre recherche renvoie 180 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Consultant OpenStack

STHREE SAS pour COMPUTER FUTURES
Publiée le
OpenStack
Red Hat Linux

1 an
100-600 €
Paris, France

Nous recherchons pour un de nos clients basés en IDF, un Consultant Openstack pour une mission freelance (longue visibilité) Les missions qui seront confié seront les suivantes : mettre en œuvre le contenu des cahiers d’installation technique réalisé par l’architecte Cloud; en d'autres termes, configurer le système permettant de déployer un OpenStack RedHat (via director) de grande envergure (+ de 150 noeuds) en se basant sur des spécifications mettre en œuvre et documenter l’outillage nécessaire à l’automatisation complète des opérations d’installation et de configuration des infrastructures nécessaires au fonctionnement du Cloud. participer à la conception et la réalisation de nouveaux services enrichissant l’offre ; en d'autres mots, ajouter de nouveaux services OpenStack participer au maintien en condition opérationnelle et de sécurité. Il s'agit ici de pouvoir réaliser des diagnostics avancés (support de niveau 3) des problèmes rencontrés au sein d'un infrastructure OpenStack et d'échanger avec notre support éditeur afin de trouver un axe de résolution. Cela peut concerner des problèmes virtuels (qemu/kvm, ovn/ovs) ou liée à des éléments externes (communication avec une baie de stockage, serveurs x86, ...) mais aussi d'identifier si nous sommes concerné par des failles de sécurité. 2 jours de TT Nat FR obligatoire (Habilitation)

CDI

Offre d'emploi
Data Scientist NLP/GenAI (H/F)

Pickmeup
Publiée le
AWS Cloud
Computer vision
Python

45k-80k €
Paris, France

NOTRE CLIENT Pionnier dans le domaine des solutions de plateforme, notre client offre une suite innovante permettant aux sociétés de transformer leur e-commerce pour accélérer leur croissance de manière durable et rentable. Depuis le début des années 2010, il accompagne les entreprises B2C et B2B en leur fournissant des technologies avancées, sécurisées et évolutives pour digitaliser leur activité, étendre leur offre via la marketplace ou le dropship, optimiser la gestion des catalogues et paiements de fournisseurs, offrir une expérience d'achat personnalisée à leurs clients, et augmenter leurs profits grâce au retail media. LES PLUS DU POSTE Intégré.e dans notre équipe Data Science, votre principale mission sera de prototyper, itérer, et mettre en production des algorithmes en collaboration avec les équipes Produit, les Data Engineers et les équipes de développement. Vos projets seront centrés sur les enjeux du catalogue Marketplace, comprenant le NLP, la Computer Vision et l'utilisation de Generative AI (LLMs customs) à grande échelle. Les sujets que vous traiterez auront un impact significatif sur leurs clients : leur ambition est d'exploiter au mieux leurs données riches et variées pour augmenter leur chiffre d'affaires, optimiser la gestion de leur marketplace et garantir la sécurité des utilisateurs et des transactions. Implémenter des algorithmes qui auront un impact visible sur plus de 500 sites e-commerce/marketplaces dans 40 pays dont certains une volumétrie très importantes (millions de produits, de clients, de commandes par an) Des techniques de pointe variées (modèles multimodaux, fine-tuning de LLM, etc.). Notre client est aujourd'hui l'un des rares acteurs français à avoir des LLM finetunés en production à grande échelle. Une vraie autonomie et responsabilité dans les projets dont vous avez ownership STACK ET OUTILS Python, Tensorflow, Pytorch, Hugging Face, Databricks, Spark, AWS (Amazon Redshift, s3, etc.), SQL, Airflow, Delta Lake. Spécifiques LLM : Autotrain, Unsloth, Galileo, LangChain, Anyscale LES MISSIONS Analyser, préparer les données, prototyper des algorithmes Les mettre en production en collaboration avec les Data Engineers et les équipes de développement Faire des dashboards afin d’illustrer la pertinence des algorithmes et de monitorer la production Présenter les résultats au weekly data science et participer aux sessions de brainstorming de l’équipe Échanger avec les autres équipes pour affiner les cas d’utilisation, l’expérience utilisateur et les modes d’intégration

CDI

Offre d'emploi
Data Engineer Expérimenté (H/F)

Harry Hope
Publiée le

50k-70k €
Paris, France

Notre client, société en pleine croissance, spécialisé dans le domaine du Big Data, recherche des Consultants Data Engineer expérimentés avec minimum 3 ans d'expérience ! Participez à cette aventure et rejoignez une formidable équipe. Vos missions principales seront diversifiées, comprenant notamment : - Participation aux processus d'avant-vente : Vous contribuerez à l'élaboration des propositions techniques, mettant en avant votre expertise pour répondre aux besoins des clients. - Qualification technique des prestataires : Vous participerez activement à l'évaluation et à la sélection des prestataires, garantissant un partenariat de qualité. - Direction et coordination des projets : Vous dirigerez et coordonnerez la conception et la mise en oeuvre des projets, assurant leur réussite technique. - Documentation technique : Vous élaborerez, au besoin, des dossiers d'architecture, d'installation et d'exploitation, assurant une traçabilité et une compréhension optimale des solutions mises en place. - Participation active aux développements : Vous apporterez votre expertise en contribuant directement aux développements dans le cadre des projets. De manière plus étendue, vous aurez l'opportunité de : - Enrichir les bonnes pratiques : Vous contribuerez à l'évolution et à l'amélioration des bonnes pratiques d'architecture et de développement dans le domaine du Big Data. - Veille technologique : Vous réaliserez une veille constante sur les avancées technologiques du secteur, assurant ainsi la pertinence des solutions proposées. - Formation technique : Vous élaborerez des supports de formation technique pour nos clients et/ou nos consultants juniors, partageant ainsi votre savoir-faire. - Animation du pôle technique : Vous participerez activement à l'animation du pôle technique favorisant un environnement collaboratif et innovant.

Freelance

Mission freelance
Product Owner Data

HAYS MEDIAS
Publiée le
BI
Microsoft Power BI

6 mois
100-650 €
Paris, France

Nous recherchons un Product Owner Data freelance pour accompagner une équipe dans la gestion et l’évolution de nos produits data-driven. Vous serez en charge de recueillir, analyser et prioriser les besoins des clients internes, tout en garantissant une excellente collaboration entre les parties prenantes. Gestion des besoins fonctionnels : Recueillir et exprimer les besoins des clients internes en collaboration avec les différentes parties prenantes. Analyser, formaliser et structurer les besoins afin d’aligner les objectifs business et techniques. Rédiger les user stories et les cas d’usage précis. Priorisation et gestion du backlog : Assurer une gestion efficace des priorités en tenant compte des enjeux métiers et techniques. Maintenir et prioriser le backlog produit en cohérence avec les objectifs stratégiques. Suivi et coordination des projets : Collaborer avec les équipes techniques et data pour garantir la faisabilité des solutions. Superviser la phase de recette et valider les livrables avant leur mise en production. S’assurer de la qualité et de la pertinence des solutions déployées. Gestion des outils et technologies : Utiliser des outils BI tels que QlikSense et Power BI pour visualiser et interpréter les données. Créer des requêtes pour extraire, manipuler et exploiter les données. Veiller à la cohérence et à la pertinence des aspects techniques liés à la data.

Freelance

Mission freelance
Product Owner Data (H/F)

HAYS MEDIAS
Publiée le
Microsoft Excel
Microsoft Power BI
Qlik Sense

5 mois
100-500 €
Paris, France

Dimension du poste : Au sein de la direction Activités B2C (Ventes et Service Client B2C, 5M de clients, 3000 conseillers). Support et animateur des équipes opérationnelles, le service POP regroupe 11 personnes autour de 3 activités : Activité Projets : Assurer les rôles de Product Owner sur les outils Tech Transfo, de la gestion des prospects et clients (Outils de vente B2C et de CRM), les besoins Data associés et la qualité de données fournies. Activité Opérations Data : Mesurer et piloter la performance opérationnelle des équipes ventes et service client B2C via le développement, la production et l’analyse des KPI et reportings opérationnels. Activité Plateforme Interactions Client : Gérer les plateformes de Gestion des Interactions Client (téléphone-email-messagerie-réseaux sociaux-chat). Objectifs du Product Owner B2C : Co-construire, déployer et assurer le bon déroulement de projets dans un environnement applicatif riche et varié. Délivrer une data de qualité et gouvernée, répondant aux besoins métier et permettant la modélisation data, l’analyse et le reporting/suivi de KPIs, dans l’optique d’augmenter la fidélité client et les ventes. Définir la vision du produit, gérer le backlog et collaborer avec diverses équipes. Travailler en binômage avec les autres collaborateurs du pôle (PO Souscription et PO Relation Client). Activités : Optimiser le produit confié : Co-construire l’évolution des produits : définition de la roadmap, rédaction et priorisation des fonctionnalités, synchronisation avec les différents interlocuteurs, tout en restant focalisé sur la création de valeur à délivrer aux utilisateurs. Garantir la qualité des données : créer et utiliser des tableaux de bord de qualité, identifier les problèmes et animer le backlog des défauts auprès des fournisseurs. Coordonner les travaux d’alimentation des données en collaboration avec la DSI en s’assurant de l’adéquation entre les choix techniques, les besoins fonctionnels et le planning. Accompagner les équipes IT dans la résolution d’incidents : détection, recherche de solution, priorisation. Définir, produire et améliorer les indicateurs de performance des outils via une supervision du périmètre. Construire, maintenir, perfectionner les outils d’analyse et de pilotage des activités B2C mais aussi réaliser des études et reportings spécifiques. Accompagner les projets transverses B2C : Formaliser la documentation des produits impactés par les projets. Produire les analyses si nécessaire permettant la définition des besoins et des impacts. Soutenir les équipes de recette métier sur les produits du périmètre. Gérer la communication autour du produit du périmètre opérationnel confié : Mettre à jour et partager la roadmap produit régulièrement. Responsabilités : Support et challengeur des équipes opérationnelles pour : Promouvoir l’amélioration continue et la transformation. Gérer la roadmap produit. Favoriser la collaboration transverse. Diffuser la culture projet et client.

Freelance

Mission freelance
Data Analyst - FMCG

BLOOMAYS
Publiée le
Microsoft Power BI
Python

12 mois
450-550 €
Paris, France

Projet visant à optimiser les investissements marketing à travers une web app . Mix Marketing Modelling Contexte international Analyse et traitement des données : Exploiter les données marketing pour produire des insights pertinents. Participer à l’optimisation des modèles de Mix Marketing Modelling. Collaborer avec les Data Scientists et les équipes locales pour adapter les solutions aux spécificités des marchés. Contribution technique : Développement et optimisation de scripts en Python. Utilisation de SQL, DBT, et Power BI Participation à la maintenance et à l'amélioration continue de l'outil. Collaboration transverse : Vulgariser les résultats et recommandations pour les équipes marketing. Assurer une communication fluide avec les équipes en Europe et au-delà. Contribution stratégique : Défendre les solutions techniques auprès des parties prenantes, y compris des directeurs marketing. Participer aux réunions hebdomadaires avec les équipes métiers pour ajuster les livrables aux besoins.

Freelance

Mission freelance
Chef de Projet Stratégie Data (H/F) - 93 ou 94

Mindquest
Publiée le
Azure Data Factory

2 mois
500-700 €
Paris, France

La DSI & la Direction Générale des Opérations (DGO) sont deux acteurs clés de la Data & l’IA. La Direction Facilitation, au sein de la DGO, porte deux fonctions clefs dans la définition d'une stratégie Data au profit des opérations aéroportuaires : la Fonction AMOA SI Aéro & Sûreté (AMOA), et la fonction Data & Management Science (DMS). Ces deux entités orientées métier travaillent en étroite collaboration avec la DSI qui assure la maitrise d'œuvre et la robustesse technique des systèmes aéroportuaires

Freelance

Mission freelance
Directeur Data et IA

Jinane Consulting
Publiée le
Apache Kafka
Microsoft Power BI

1 an
100-1k €
Paris, France

Rattaché au cto, il devra : - definir la stratégie et l’évolution des plateformes data et IA en lien avec l’entreprise - diffuser la culture data et ia au sein du groupe - garantir la disponibilité des plateformes data et ia - conduire et assurer la transformation des equipes en mode produit - etre l’ambassadeur du client lors d’evenements internes et externes - manager une equipe de 45 collaborateurs (dont prestas locaux et offshore) repartis en 5 equipes avec des profils pluridisciplinaires (Mlops, data engineer, data architect, data manager, ML engineer) - assurer recrutement de collaborateurs - gestion des budgets - gestion des crises - Participer aux comités internes et y représenter la data (Comité DSI, comité IA Gen, Copil B2B...), -Gérer les relations avec les principaux éditeurs et négocier les contrats de renouvellement (Snowflake et Microsoft), - Travailler en étroite collaboration avec les directions produits B2C, B2B, Advertising et Datascience afin d’anticiper les besoins et de construire les roadmaps des plateformes data et IA.

Freelance

Mission freelance
Chef de projet Data RGPD

PARTENOR
Publiée le
Master Data Management (MDM)
Rgpd

1 an
500-700 €
Paris, France

Afin d'accompagner notre croissance et de renforcer nos équipes chez l'un de nos clients grands comptes, nous recherchons un(e) : Chef de projet Data conformité RGPD F/H Objectif : Accompagnement à la conformité des activités de traitement des données du groupe selon les différentes obligations réglementaires auxquelles l’entreprise doit se conformer. Mission : Animation de réunions ou comités de suivi des actions de conformité, Rédaction ou mise à jour de documents technico-fonctionnels, Intégrer les principes de la protection des données dès la phase de conception des projets. Contribuer à la production d'outils d'évaluation de la conformité Production de notes sur la veille réglementaire data et suivi de l’actualité et ses impacts sur les activités du groupe notamment SI Production de grilles d’analyse de risques sur la vie privée, de critères et conditions d’anonymisation de données ou de règles de purge et archivage de données Assurer la veille règlementaire (RGPD, Data Act)

Freelance

Mission freelance
Consultant en stratégie DATA - 320

ISUPPLIER
Publiée le

3 job_posting.null
Paris, France

POSTE OUVERT QUE AUX FREELANCE Mission basée à Paris Mission potentiellement renouvelable Objectifs de la mission Mission de cadrage organisationnel et stratégique Prestations demandées - Définition du Target Operating Model - Définition des ambitions technologiques 2025 - Définition d'une roadmap 2025 - note de cadrage

Freelance
CDI

Offre d'emploi
Date engineer

HN SERVICES
Publiée le
Apache Spark
Scala

2 ans
10k-57k €
Paris, France

Contexte : Le Groupe a lancé le programme qui se déroulera sur 5 ans (2020 / 2025). Une équipe dédiée a été créée pour la durée du programme. Ce programme s'articule autour des 4 principaux chantiers ci-dessous : • Mise en place d'une Assiette Comptable de Référence, certifiée & unique sur l'ensemble du périmètre servant de référence pour les calculateurs et reportings Finance et Risques • Décommissionnement de la base de données actuelle des inventaires Finance et capitalisation sur le Datalake Finance & Risk • Mise en place d'une nouvelle plateforme globale de suivi des contrôles et de gestion des corrections (en se basant sur le streaming évènementiel type Kafka) • Optimisation et rationalisation du SI (prudentiel notamment) basé sur cette assiette comptable de référence En particulier, le chantier "CARAT" Assiette Comptable de Référence comprend trois sous-chantiers majeurs au sein du datalake Finance et Risque : • Acquisition et complétion des données • Nouvelle modélisation des données orientée produit pour les besoins des traitements, des calculateurs, … et distribution des données • Mise en place d’un Module de certification comptable avec mise en place d'un rapprochement plus rationalisé Compta to BO to FO et centralisation du rapprochement Compta Statutaire & Consolidée. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks mutualisée qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (SRB, PVA, Anatitres, Anacrédit, etc.) Au sein du chantier CARAT, travaillant en mode agile (SCRUM), la mission consistera à prendre part aux développements sur GASPARD, tout en étant garant de la pérennité et la non régression de l’outillage déjà en place, sur les deux sujets ci-dessous : 1) L'optimisation de la performance, temps d'exécution, utilisation des ressources machines afin de tenir les délais de traitement des informations et de leurs distributions vers les consommateurs avals (Calculateurs et reporting) dans le cadre des arrêtés mais également des besoins quotidiens. Notamment afin de faire face à l'augmentation significative de la volumétrie de données sur S2 2024 et 2025 en lien avec les déploiements GASPARD 2) La contribution à la mise en place des outils de monitoring technique et fonctionnelle L’équipe est principalement localisée à Paris mais dispose de ressources à Porto. L’anglais est donc d’usage dans l’équipe.

CDI

Offre d'emploi
Architecte Data Azure - Paris H/F

Inventiv IT
Publiée le
Azure

65k-90k €
Paris, Île-de-France

Rejoignez Inventiv IT et façonnez l'avenir avec nous 🚀 Vous êtes un(e) Architecte Data Azure passionné(e) par les Big Data et la transformation digitale ? Rejoignez-nous pour concevoir et implémenter des architectures data de pointe sur Azure, en dirigeant des projets innovants dans le Cloud et en assurant la qualité des livrables 🎯Inventifs Wanted Nous recherchons un architecte Data Azure ayant une expertise en Avec 7 ans d'expérience au minimum. Travaillant sur des sujets Big Data & Data Viz Participation à l’évaluation et à la livraison de composants Azure . Gestion du Build & du Run des applicatifs Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks . Implémentation de solutions utilisant Azure SQL Database , Azure Data Factory , et Azure SQL Managed Instance . Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure. Cadrage et chiffrage des divers projets Big Data . Définition des solutions d’architecture Big Data dans le Cloud Azure . Garantir la cohérence technique et la pérennité du système d’information. Mise en place de l'architecture des projets Big Data sur le Cloud Azure en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT) . Migration des projets dans des nouvelles architectures ( HDI vers AKS , Datalake Gen1 vers Gen2 , AKS 1.19 vers AKS 1.X ) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod . Participation à des instances de : Design Authority , CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel). Validation de l'architecture du Product Incrément , à des réunions de qualification. Validation avec le RSSI et suivi de chantiers de résilience et de suivi FinOps . Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). Création de rapports, tableaux de bord, et KPI avec Power BI , ainsi que gestion de la sécurité des données. Cloud Platform & Services : Azure, Azure API APPS, Azure DevOps, Azure Data Factory, Azure Data Lake, Azure Synapse Analytics, Azure Databricks, Azure IoT, Azure Stream Analytics, Azure SQL DB, Azure SQL Managed Instance Data & Analytics : Datalake, SQL, Power BI, Azure Synapse Analytics, Azure Databricks, Azure Data Lake, Azure Stream Analytics Automation & Scripting : PowerShell, CI/CD, Azure DevOps

Freelance
CDI

Offre d'emploi
Data Engineer DevOps Airflow (H/F)

NSI France
Publiée le
Apache Airflow
DevOps
Kubernetes

3 ans
10k-50k €
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Intégration des modèles d’IA · Développement de processus automatisés en utilisant la technologie Airflow en relation étroite avec les métiers · Conception des solutions nécessitant l’utilisation de technologies data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données · Travaille avec différents profils data du groupe (Data Scientist, Data Engineer, Data Architect, Data Analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Freelance

Mission freelance
CONSULTANT OpenStack RedHat

QUALIS ESN
Publiée le
OpenStack

6 mois
100-620 €
Paris, France

Les missions qui seront confiés seront les suivantes : mettre en œuvre le contenu des cahiers d’installation technique réalisé par l’architecte Cloud; en d'autres termes, configurer le système permettant de déployer un OpenStack RedHat (via director) de grande envergure (+ de 150 noeuds) en se basant sur des spécifications mettre en œuvre et documenter l’outillage nécessaire à l’automatisation complète des opérations d’installation et de configuration des infrastructures nécessaires au fonctionnement du Cloud. participer à la conception et la réalisation de nouveaux services enrichissant l’offre ; en d'autres mots, ajouter de nouveaux services OpenStack participer au maintien en condition opérationnelle et de sécurité. Il s'agit ici de pouvoir réaliser des diagnostics avancés (support de niveau 3) des problèmes rencontrés au sein d'un infrastructure OpenStack et d'échanger avec notre support éditeur afin de trouver un axe de résolution. Cela peut concerner des problèmes virtuels (qemu/kvm, ovn/ovs) ou liée à des éléments externes (communication avec une baie de stockage, serveurs x86, ...) mais aussi d'identifier si nous sommes concerné par des failles de sécurité.

CDI

Offre d'emploi
Responsable Master Data Bilingue (H/F)

ADSearch
Publiée le

60k €
Paris, France

ADJOINT(E) RESPONSABLE MASTERDATA FRANCE-BENELUX (H/F) : En Bref : Paris 19 - CDI - ADJOINT(E) RESPONSABLE MASTERDATA FRANCE-BENELUX (H/F) - 45KEUR/55KEUR - SAP - Excel Adsearch, société de conseil en recrutement spécialisé vous accompagne dans votre carrière pour vous trouver LE poste idéal. Adsearch recherche pour un de ses clients, spécialisé dans le commerce de gros, un ADJOINT(E) RESPONSABLE MASTERDATA FRANCE-BENELUX (H/F) dans le cadre d'une création de poste en CDI. Missions : Au sein de la région France-Benelux, lAdjoint(e) Responsable Masterdata aura pour mission de gérer, maintenir et optimiser les données de référence, de contribuer au développement de notre marketplace direct2you et à garantir la qualité, la fiabilité et la disponibilité des informations contenues dans les bases produits et fournisseurs dAntalis. Vous aurez la responsabilité de gérer des données en volume pour des produits stockés et non-stockés dans un contexte daccélération de la digitalisation et du développement croissant de notre marketplace. Vous participerez également à des projets transverses. Responsabilités : Gestion des informations des bases de données produits et fournisseurs SAP et MDM pour la région France-Benelux. Contrôler lexhaustivité des fichiers fournis pour les créations et corrections de données articles dans SAP et MDM. Interagir avec les fournisseurs pour enrichir les fichiers de création des articles et fourniture de visuels, textes, fiches techniques, vidéos. Créer et modifier les données fournisseurs selon les informations achats, gestion des stocks Préparer les fichiers et demandes EasyVista, nécessaires à la création des vues centrales et vues locales des articles Entrer des données dans la base selon les règles groupe Traiter les demandes de linbox masterdata selon le process Reporter et traiter les defects (EasyVista) Participer aux actions dalignement des données décidées centralement Être le contact des équipes Masterdata centrales pour la France Propositions damélioration des processus masterdata Tableaux de recueil des données Circuit de création, etc. Travail ad-hoc sur les bases produits SAP Extraction de fichiers ou dinformations à la demande Insertion en masse de données nouvelles Contrôles de luniformité et de la logique des éléments dans la base de données Back-up pour la gestion des promotions dans SAP Réaliser ses missions dans le respect de la politique santé et sécurité définie par le groupe et Antalis France. La liste des missions nest pas limitative, elle pourra évoluer en fonction de vos propositions et de lactualité du département. Adsearch vous propose des milliers d''opportunités de carrières dans toute la France pour les profils d''experts, cadres et managers. Que ce soit pour un emploi ou pour une mission, Adsearch c''est le cabinet de recrutement qu''il vous faut ! Retrouvez toutes nos offres d'emploi en CDI, CDD, Intérim et Freelance sur notre site internet !

CDD
CDI
Freelance

Offre d'emploi
Consultant Data Migration & Données produits

fsystem
Publiée le
Azure
ERP
Microsoft Power BI

12 mois
10k €
Paris, France

4/5 -> 1 jour dans les bureaux à Paris / 3 à la défense Début : ASAP Analyser les structures de données actuelles (M3, Aptos) et celles du nouveau PLM (Centric). Élaborer les spécifications fonctionnelles et techniques pour le mapping des données entre les systèmes (Centric, M3, Aptos). Identifier et résoudre les écarts dans les structures de données. Définir les processus de nettoyage et d’enrichissement des données. Coordonner les actions avec les équipes métiers et techniques. Garantir la qualité et la conformité des données migrées avec les exigences du PLM Centric et les standards GCP. Participation aux chantiers d’analyse et de reporting avec Microsoft/Azure Data & AI (Power BI) . Collaboration sur les projets intégrant Salesforce . Compétences requises : Expérience avec les ERP (notamment M3), les outils PLM (Aptos, Centric). Expertise en analyse et migration des données. Maîtrise des outils de reporting (Power BI). Connaissance des plateformes cloud (Microsoft Azure).

180 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
10 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous