Trouvez votre prochaine offre d’emploi ou de mission freelance Dataiku
Consultant(e) DATAIKU DSS

Bonjour, Concernant le périmètre de nos activités sur dataiku, vous trouverez ci-dessous une brève description de mes taches par thématiques (Remarque : Les taches en gras sont des taches déjà accomplies, le reste est encore à faire) : Gestion des environnements : Récupération des logs DSS pour toutes les instances (Design et automation) et les mettre sur une bucket S3 dédié au monitoring Monitoring Développement d'un projet de monitoring données dataiku qui contient des tables décrivant tous les items développés sur dataiku, à partir desquelles on génère automatiquement des dashboards quotidiens pour monitorer les activités de tous les utilisateurs sur l’instance : Datasets,Projects,Jobs,Scenarios,Recipes,connections… Dashboards interactifs avec différents insights avec la possibilité de filtrer sur User/Project/connection/Dataset… Audibilité Rencontre avec deux équipes métiers ‘direction financière’ et ‘Data Energy management’ pour : Comprendre leurs métiers Cadrage de leurs besoins sur dataiku. Un état des lieux de leurs projets Finops Création d'un projet de ressource usage monitoring pour monitorer l’utilisation de dataiku en termes de ressources (CPU/RAM/SQL/kubernetes) avec des dahsboards interactifs quotidiens générés automatiquement Support, Accompagnement et industrialisation : Création d'un support de bonnes pratiques durant toutes les phases de développement d’un projet sur dataiku, partagé avec les différents membres des équipes métiers développant sur dataiku. Développement d’un plugin de contrôle de data quality pour être utilisé pour n’importe quel dataset dans n’importe quel projet. Développement d’une macro dataiku qui supprime automatiquement les datasets intermédiaires Instaurer les bonnes pratiques sur les projets (urgents :Prévision_elec_${compagne mensuelle} et budget_dev_elec) afin de les mettre en production. Transformation des recettes pythons en recettes visuels Industrialiser ces projets en automation node Développement d’une macro dataiku qui migre automatiquement les datasets d’un cdh vers un autre Accompagnement et support permanant sur dataiku : Proposition d’amélioration des développements avec des concepts dataiku Formation sur mesure sur des concepts dataiku Développement customisé selon le besoin Accompagnement de bout en bout sur la mise en prod des use cases
Consultant – Data RH – Expert Dataiku

Consultant Confirmé – Data RH – Expert Dataiku *** - Contexte de la mission Au sein d'une Direction RH, le pôle People Analytics accompagne les équipes RH dans l’exploitation des données afin d'améliorer l'expérience employé et faciliter le pilotage stratégique. Le pôle People Analytics construit des produits analytiques destinés à : - Aider à la décision stratégique - Optimiser l’expérience collaborateur - Valoriser les actions RSE RH auprès des parties prenantes externes - Digitaliser les processus RH Grâce à une plateforme centralisée, l’équipe crée et maintient différents DataMarts nécessaires au pilotage des activités RH. - Prestations attendues La mission concerne l’intégration sur la plateforme centrale de développements analytiques existants réalisés localement. Ces développements évolueront selon les besoins. Les prestations attendues sont : - Analyse des processus et des données RH existantes - Challenge des traitements existants sur Alteryx - Intégration des données sur la plateforme centrale (Oracle) - Structuration des données sous Dataiku selon les règles définies - Construction des indicateurs nécessaires aux dashboards Tableau existants - Contrôle qualité et vérification de l’adaptation des dashboards Tableau - Documentation technique (dictionnaire de données, modes opératoires, wiki) - Formation des équipes internes à la maintenance et à l’évolution des données - Animation des échanges et partage avec les équipes internes Secteur d’activité : Banque – Direction RH Calendrier : 7 mois (du 07/04/2025 au 31/10/2025) Profil recherché - Séniorité : 6 à 9 ans - Expertises : Data, Dataviz - Métier : Ressources Humaines - Périmètre fonctionnel : Processus, indicateurs et données RH - Solutions et outils : Dataiku, Tableau, Alteryx, Oracle - Anglais : Opérationnel TJM : 450€/j
Data Steward

Nous recherchons 1 data quality analyst (steward) afin d' organiser et industrialiser le suivi de la qualité de la donnée Suivi de la qualité de la donnée = 60%-50% - analyse des tableaux de bord existants et créations de nouveaux dashboards (préparation de la donnée et visualisation - Dataiku/ Tableau / SQL) - Mise en place des indicateurs de suivi (complétude, conformité, unicité, cohérence, mise à jour... ) - Identifier et lotir les différents cas de disqualité via une analyse transverse et fonctionnelle entre les différents SI d' Arval - Organiser les ateliers avec les Métiers afin de partager les constats - Organiser et coordonner les plans de remédiation avec les Métiers et l'IT - Proposer des contrôles à implémenter (semi manuel ou avec la contribution de l'IT ) - Mise à jour et maintien du Catalogue des données (Collibra / We Data) - Mettre en place un Comité Qualité (Quality assessment and remediation program) au niveau de la France
Appui Epic Owner - Consultant Sénior en Data / IA H/F

nance de périmètre IAL’Epic Owner sera le principal interlocuteur pour cette mission mais l’intervenant devra mener les études en étroite collaboration avec les équipes Produit concernées (PO, Lead Op…) et l’Architecte Référent du domaine. 1.1 Activités de la mission L’intervenant aura à réaliser les études nécessaires et produire les livrables associés sous pilotage de l’Epic Owner et en collaboration avec les équipes Produit concernées. Dans le cadre des études à réaliser l’intervenant aura la charge d’organiser les ateliers nécessaires avec les équipes internes mais également avec des sociétés externes (éditeurs pour les études de solution, entreprises pour des REX…). Ci-dessous la liste des Initiatives à date qui nécessitent une instruction avant la fin de cette année - Ces Initiatives et Epics associées sont gérées dans un backlog Jira. Définir et formaliser la politique sur les solutions IA Gen afin de donner un cadre légal Mise en conformité de la plateforme Data Science Enrichir l'offre CoIOT avec l'ajout des fonctionnalités génériques Etudier et déployer une nouvelle solution pour le socle de la Plateforme APINess Etudier et déployer l'extension de la plateforme Data Science Rationaliser l'outillage Data Science en vue de la sortie de Dataiku au profit de la PDA Offrir une solution permettant de documenter les données/produits data et de faciliter leur accès Définir un scenario alternatif à la solution Aveva PI permettant les gains d'OPEX Etudier une solution alternative au service MS SSAS en cours d'obsolescence Mettre à jour le cadre technologique sur les périmètres Data et Echanges Réaliser la conduite de changement Définir l'offre de service et la gouvernance du périmètre IA
Data Engineer Dataiku / Python / Spark / AWS
Dans le cadre d’un projet d’industrialisation des pipelines de données, notre client recherche un Data Engineer confirmé Python / Spark / Dataiku pour renforcer une équipe data déjà en place. L’objectif principal est de structurer un socle technique robuste, améliorer la qualité des traitements et fiabiliser les processus de mise en production. Vous serez amené à travailler sur des sujets de tests automatisés, de monitoring de pipelines, de performance, et de déploiement continu. Le rôle est transverse : il implique à la fois des compétences techniques solides et une capacité à faire évoluer les pratiques de l’équipe.
Product Owner Data
Mission / Freelance / France / Paris / Product Owner / Data / Energie / Cloud Data / AWS / Databricks / Dataiku / Power BI / Data Management / Gouvernance / Modélisation Je recherche en urgence un Product Owner Data pour une mission freelance au sein d’un acteur du secteur de l’énergie. Le contexte porte sur la modernisation d’une plateforme data récemment mise en place et en cours d’industrialisation à grande échelle. Localisation : Paris (2j/semaine en télétravail) Démarrage : ASAP Durée : Mission longue Statut : Freelance uniquement Contexte de la mission Dans un objectif de centralisation des données, de fiabilisation des traitements et d’optimisation des usages data (notamment pour les équipes Finance et Energy Management), une nouvelle plateforme a été construite sur AWS avec Databricks. Initialement développée sous forme de POC, elle nécessite désormais une montée en maturité, tant sur les outils que sur l'organisation. La mission se déroulera au sein de la Direction Marketing Data & Communication, au sein d’une équipe transverse en charge de structurer la gestion de la demande et la priorisation des projets data. Missions principales Piloter le delivery des produits data sur un ou plusieurs domaines métiers Gérer le backlog et rédiger les user stories à partir des besoins exprimés Coordonner les parties prenantes : data engineers, stewards, managers, IT, métiers Animer les rituels agiles (daily, rétros, plannings, démos, PI Planning) Prioriser les développements et organiser les phases de démonstration Assurer la cohérence entre les différents domaines et identifier les dépendances Profil recherché Minimum 4 ans d’expérience en tant que PO ou dans un rôle fonctionnel orienté data Très bonne connaissance des environnements cloud data (AWS, Databricks, Dataiku, Power BI) Compétence en data management, gouvernance, modélisation Capacité à vulgariser les sujets techniques pour les métiers Aisance dans un environnement agile et pluridisciplinaire Excellent relationnel, posture transverse, capacité à fédérer Si cette opportunité vous intéresse, vous pouvez y postuler ou bien me contacter directement (Christopher Delannoy) pour que je puisse prendre connaissance de votre candidature au plus tôt.
Consultant(e) DATAIKU DSS

Bonjour, Concernant le périmètre de nos activités sur dataiku, vous trouverez ci-dessous une brève description de mes taches par thématiques (Remarque : Les taches en gras sont des taches déjà accomplies, le reste est encore à faire) : Gestion des environnements : Récupération des logs DSS pour toutes les instances (Design et automation) et les mettre sur une bucket S3 dédié au monitoring Monitoring Développement d'un projet de monitoring données dataiku qui contient des tables décrivant tous les items développés sur dataiku, à partir desquelles on génère automatiquement des dashboards quotidiens pour monitorer les activités de tous les utilisateurs sur l’instance : Datasets,Projects,Jobs,Scenarios,Recipes,connections… Dashboards interactifs avec différents insights avec la possibilité de filtrer sur User/Project/connection/Dataset… Audibilité Rencontre avec deux équipes métiers ‘direction financière’ et ‘Data Energy management’ pour : Comprendre leurs métiers Cadrage de leurs besoins sur dataiku. Un état des lieux de leurs projets Finops Création d'un projet de ressource usage monitoring pour monitorer l’utilisation de dataiku en termes de ressources (CPU/RAM/SQL/kubernetes) avec des dahsboards interactifs quotidiens générés automatiquement Support, Accompagnement et industrialisation : Création d'un support de bonnes pratiques durant toutes les phases de développement d’un projet sur dataiku, partagé avec les différents membres des équipes métiers développant sur dataiku. Développement d’un plugin de contrôle de data quality pour être utilisé pour n’importe quel dataset dans n’importe quel projet. Développement d’une macro dataiku qui supprime automatiquement les datasets intermédiaires Instaurer les bonnes pratiques sur les projets (urgents :Prévision_elec_${compagne mensuelle} et budget_dev_elec) afin de les mettre en production. Transformation des recettes pythons en recettes visuels Industrialiser ces projets en automation node Développement d’une macro dataiku qui migre automatiquement les datasets d’un cdh vers un autre Accompagnement et support permanant sur dataiku : Proposition d’amélioration des développements avec des concepts dataiku Formation sur mesure sur des concepts dataiku Développement customisé selon le besoin Accompagnement de bout en bout sur la mise en prod des use cases
POT8321-Un Data Ingénieur Senior-Projet de migration SAS vers ALTAIR / DATAIKU Sur Paris 13

Almatek recherche pour l'un de ses clients, Un Data Ingénieur Senior - Projet de migration SAS vers ALTAIR / DATAIKU Sur Paris 13 Contexte : Au sein du département Data Mangement Office de la DSI « Assurance Non vie », le consultant aura en charge la migration des programmes SAS vers les outils ALTAIR et DATAIKU" Descriptif général de la mission / Livrables et dates associées : Cette mission vise à migrer les traitements existants développés sur SAS vers les solutions Altair et Dataiku, permettant ainsi une meilleure intégration, une plus grande flexibilité et des capacités avancées d'analyse de données • Objectifs de la Mission : Évaluation des Traitements Existants : Analyser les traitements actuels développés sous SAS pour comprendre leur logique, leurs dépendances et leur impact sur les processus métier. Identifier les meilleures pratiques et les éléments clés à reproduire dans les nouvelles solutions. Planification de la Migration : Élaborer un plan de migration détaillé, incluant les étapes, les ressources nécessaires, les délais et les risques associés. Définir une stratégie de test pour garantir la qualité et l'intégrité des données après migration. Migration des Données et des Traitements : Utiliser les outils Altair et Dataiku pour recréer les traitements SAS, en veillant à ce que la logique métier soit préservé et optimisée. Transférer les données nécessaires vers les nouvelles plateformes, en assurant la qualité et la conformité des données. Formation et Accompagnement : Former les équipes internes sur l'utilisation d'Altair et Dataiku, en mettant l'accent sur les fonctionnalités spécifiques qui améliorent l'efficacité et la productivité. Assurer un accompagnement post-migration pour répondre aux questions et résoudre les problèmes éventuels. Suivi et Optimisation : Mettre en place des indicateurs de performance pour évaluer l'efficacité des nouveaux traitements et l'impact sur les processus métier. Proposer des recommandations pour l'optimisation continue des outils et des processus.
Data Scientist Dataiku - Conformité bancaire (H/F)

Nous recherchons pour notre client bancaire un(e) Consultant(e) Data Scientist maitrisant Dataiku, Python, Py Spark et ayant éventuellement des connaissances en conformité bancaire, notamment sur la lutte contre le blanchiment de capitaux et le financement du terrorisme (LCBFT). La mission consiste à apporter ses compétences en data science, afin de participer au projet de conformité bancaire. La mission est sur Paris à partir de mi-avril 2025. Les candidatures seront envoyées dès que possible à notre client.
Architecte / Conseil Data / IA

Livrables : Définir et formaliser la politique sur les solutions IA Gen afin de donner un cadre général pour le dé… Mise en conformité de la plateforme Data Science Enrichir l’offre CoIOT avec l’ajout de fonctionnalités génériques Étudier et déployer une nouvelle solution pour le socle de la plateforme APIness Étudier et déployer l’extension de la plateforme Data Science Rationaliser l’outillage Data Science en vue de la sortie de Dataiku au profit de la PDA Offrir une solution permettant de documenter les données/produits data et de faciliter leur accès et… Définir un scénario alternatif à la solution Aveva PI permettant les gains d’Opex et de limiter la dépendance Étudier une solution alternative au service MS SSAS en cours d’obsolescence Mettre à jour le cadre technologique sur les périmètres Data et Échanges Réaliser la conduite du changement relative à la PDA afin de démocratiser les usages des données d… Définir l’offre de services et la gouvernance du périmètre IA
Consultant Datastage (Luxembourg)

Nous recherchons un consultant en Data, avec une solide expérience autour de l'outil Datastage. Le consultant intégrera l’équipe Data provisioning (DPR), qui a en charge la mise à disposition des données pour les différents consommateurs Data (BI, Data Scientists, équipes métiers, etc.) ; Tout en respectant les normes règlementaires et la gouvernance des données. Au sein de cette équipe le consultant interviendra principalement sur : L’implémentation du projet « Bâle IV » qui vise à mettre en œuvre les nouvelles exigences réglementaires imposées aux institutions bancaires et de crédit. La participation aux travaux d’enrichissement et livraison des données pour les différents Data Customers selon les normes et standards Vos tâches : Analyser les besoins des équipes métiers Concevoir des solutions robustes et optimisées et rédiger les spécifications techniques Proposer une planification réaliste des travaux et livraisons Développer les flux Datastage selon les standards Assurer la partie testing et support des métiers lors de la qualification Documenter et déployer les solutions selon les normes Assurer la maintenance, la qualité et les performances des solutions livrées Travailler en étroite collaboration avec l’équipe projet (Data Engineer, équipes métiers, Chef de projet IT, Chef de projet Métier) Assurer un reporting régulier sur l’état d’avancement des projets et tâches confiées Identifier les risques et proposer des solutions pour respecter les délais et objectifs Vos qualifications Expérience d’au moins 5 ans dans le domaine de la Data Maitrise avancée d’IBM Datastage (5 ans d’exp. minimum) Fortes capacités analytiques et de résolution de problèmes Solides connaissances en bases de données (Oracle, SQL Server, DB2) Maitrise des techniques de modélisation des données (relationnelles, multi-dimensionnelles) Expérience avec des Framework CI/CD est un avantage Une expérience dans le domaine bancaire, principalement la réglementation Bâle 4. Aisance de communication Facilité d’intégration et esprit d’équipe Rigueur, autonomie et gestion des priorités Expérience avec les outils (Webfocus, Denodo, Dataiku, Power BI) est considérée comme un avantage
Un Tech Lead Java 17/21, Angular maîtrisant Dataiku, et idéalement avec un vernis banque sur Le 92

Smarteo recherche pour l'un de ses clients, grand compte, Un Tech Lead Java 17/21, Angular maîtrisant Dataiku, et idéalement avec un vernis banque sur Le 92. Démarrage ASAP Localisation Issy Les Moulineaux / Télétravail 2 à 3 jours par semaine Durée de la mission : 2 ans Projet : Analyse et compréhension des user stories Conception des micro-services (réservation de capacités, mesures, agrégations, ...) Etude impact architecture Déploiement Jenkins sur Openshift/Kubernetes Développement batch, API Développement backend en Java 17/21, spring boot Programmation réactive Développement front avec Angular Coaching technique pour les développeurs Relecture/Revue de code/Pair Programming Pratiques craftsmanship (clean code, TDD, BDD, Code review...) Conduite de changement, gestion des évolutions. Présentations techniques et documentation technique Veille technologique Background bancaire : Crédits Risques : Risque de crédit, Risque de Marché / Contrepartie Réglementation Bancaire Environnement Technique: Base de données : PostGreSQL ; DATAIKU Niveau avancé Langages : Java, Angular / PLSQL / Shell/ xml Framework et environnement : JIRA, POP/GITlab,STCAv3, Docker, DCS/OpenShift, Helm, DevOps, spring boot et spring batch Compétences requises : Compétences Techniques: Maitrise des outils Agilité à l'échelle ITIL Méthodologie de conduite de projet Urbanisation du SI Compétences Fonctionnelles: Adaptabilité Connaissance du domaine bancaire Autonomie Orientation résultat Si vous êtes disponible et intéressé merci de me faire parvenir votre TJM+CV à jour dès que possible.
Architecte Data H/F
À propos de SkillsFirst chez NEURONES : Filiale du groupe NEURONES, SkillsFirst accompagne les entreprises ayant un besoin d'assistance technique par l'intervention de compétences d'experts, notamment dans le domaine de la DATA. Nos valeurs : Ecoute, Réactivité, Professionnalisme. MISSIONS : Intégré chez nos clients Grands Comptes dans les secteurs Banque, Assurance, Energie, Industrie, etc., nous attendons de vous que vous maîtrisiez : L'architecture fonctionnelle et applicative ; L'architecture d'entreprise et les règles et principes d'architecture ; Les activités du marché mondial et/ou du secteur bancaire mondial. Plus généralement, vos missions peuvent varier en fonction du périmètre qui vous sera confié chez le client, et du type de projet à mener. Parmi les principales, on pourra citer : Challenger les nouveaux besoins des clients et les inclure dans la roadmap/release management ; Collaboration avec les métiers pour définir et mettre en œuvre les Data Product répondant à des besoins métiers spécifiques, en garantissant la qualité et l'accessibilité des données ; Évaluer l'architecture de gestion de données existante ; Réaliser les travaux d’architecture fonctionnelle et technique des solutions cibles ; Structurer l'information du système d'information ; Créer et gérer les modèles de données sous toutes leurs formes, conformément à la politique du référentiel de données ; Contribuer et enrichir le référentiel d'architecture des données ; Préconiser des solutions techniques de stockage et de gestion de Big Data ; Mettre en place des outils pour faciliter l'usage des données dans l'entreprise ; Assurer la conformité des solutions proposées avec la réglementation RGPD ; Surveiller l'efficience des BDD et proposer des mesures correctives ou évolutives.
Proxy Product Owner DATA

Pour l’un de nos clients, nous recherchons un Proxy Data Product Owner afin de renforcer ses équipes et d’accompagner la conception et la mise en œuvre de Data Products. En collaboration avec les équipes métiers, techniques et le Data Office, vous jouerez un rôle clé pour garantir la pertinence, la qualité et la valeur business des produits de données. Missions Piloter la définition et l’évolution des Data Products en collaboration avec les équipes Data et les parties prenantes métiers. Recueillir, analyser et formaliser les besoins utilisateurs et métier. Rédiger et prioriser le back log en garantissant une cohérence avec la stratégie Data Mesh. Assurer le suivi du delivery des équipes techniques et garantir le respect des délais et des exigences qualité. Participer aux rituels Agile (Daily, , sprint reviews, rétrospectives). Définir les indicateurs de performance et suivre l’usage des Data Products pour maximiser leur impact. Accompagner le changement et favoriser l’adoption des produits auprès des utilisateurs finaux. Compétences requises Expérience confirmée en Product Management ou Proxy Product Owner, idéalement dans un contexte Data. Bonne maîtrise des principes de Data Mesh et des Data Products (une première expérience en réalisation de Data Products est fortement souhaitée). Connaissance des architectures data, des pipelines et des technologies associées (Dataiku, Cloud AWS, Cloud Azure, etc.). Capacité à collaborer avec des profils variés (Data Engineer, Data Analyst, Data Scientists, Business Owners, etc.). Excellentes compétences en communication, négociation et gestion des priorités. Maîtrise des méthodologies Agile (Scrum, Kanban)
Responsable Produit pour l'Audit Général d'Inspection (IGA).

Responsable de la Gestion de Projet pour l'Audit Général d'Inspection (IGA) • Lieu : Paris (Hybride) • Durée : Contrat de 3 mois renouvelable (Projet de 2-3 ans) • Langues : Français et Anglais Je suis actuellement en train d'aider un de mes clients de longue date dans le secteur des services financiers, qui travaille en collaboration avec une entreprise leader dans le secteur des transports, à la recherche d'un Responsable Produit pour l'Audit Général d'Inspection (IGA). pour travailler avec eux en externe sur un projet à long terme. Ils seront responsables des applications IGA pour l'entreprise IGA. Le poste a un aspect fonctionnel important. Ils seront le point de contact pour l'Audit Général d'Inspection (IGA) pour la coordination de leurs projets au sein de tout le département informatique. Ils interagiront avec tous les intervenants du département informatique pour mener à bien les projets informatiques de l'IGA. Ils doivent être organisés, méthodiques, rigoureux, persévérants et proactifs. L'IGA utilise la solution Smart de l'éditeur Enablon hébergée à la Caisse des Dépôts, et des évolutions sont attendues, nécessitant un support et une maintenance. Projets en cours : • Automatisation des rapports d'audit avec l'intelligence artificielle • Utilisation de Dataiku pour les analyses d'audit, en exploitant les données de l'entreprise dans les compteurs, ensembles de données, applications, etc. • Automatisation des rapports de recommandations • Étude de cas pour l'utilisation de l'IA • Gestion des autorisations SMART et plus larges de l'IGA (y compris le rôle composite de l'IGA) Objectif de cette mission : • Répondre aux besoins de l'entreprise tout en respectant la feuille de route et le budget. • Agir en tant que chef de projet à part entière pour la Direction, en adoptant une approche "MOA". • Soutenir l'entreprise dans ses projets informatiques, en particulier dans le suivi de l'évolution de la solution Smart, la gestion des projets, et surtout ceux énumérés ci-dessus. • Maintenir les enregistrements Jira (fonctionnalités, user stories, objectifs, risques, etc.) à jour tout au long du PI. Rapporter à Scrum, RTE et IGA. Préparer et participer aux cérémonies SAFe (quotidiennes, exploration continue, PIP, I&A, etc.).
Proxy Data Product Owner H/F

Piloter la définition et l’évolution des Data Products en collaboration avec les équipes Data ; • Recueillir, analyser et formaliser les besoins utilisateurs et métier ; • Rédiger et prioriser le backlog en garantissant une cohérence avec la stratégie Data Mesh ; • Assurer le suivi du delivery des équipes techniques et garantir le respect des délais et des exigences qualité ; • Participer aux rituels Agile (dailys, refinements, sprint reviews, rétrospectives) ; • Définir les indicateurs de performance et suivre l’usage des Data Products pour maximiser leur impact ; • Accompagner le changement auprès des utilisateurs finaux.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.